Académique Documents
Professionnel Documents
Culture Documents
Solaris Cluster
Rfrence : 821281310
Septembre 2010, Rvision A
Copyright 2000, 2010, Oracle et/ou ses affilis. Tous droits rservs.
Ce logiciel et la documentation qui l'accompagne sont protgs par les lois sur la proprit intellectuelle. Ils sont concds sous licence et soumis des restrictions
d'utilisation et de divulgation. Sauf disposition de votre contrat de licence ou de la loi, vous ne pouvez pas copier, reproduire, traduire, diffuser, modifier, breveter,
transmettre, distribuer, exposer, excuter, publier ou afficher le logiciel, mme partiellement, sous quelque forme et par quelque procd que ce soit. Par ailleurs, il est
interdit de procder toute ingnierie inverse du logiciel, de le dsassembler ou de le dcompiler, except des fins d'interoprabilit avec des logiciels tiers ou tel que
prescrit par la loi.
Les informations fournies dans ce document sont susceptibles de modification sans pravis. Par ailleurs, Oracle Corporation ne garantit pas qu'elles soient exemptes
d'erreurs et vous invite, le cas chant, lui en faire part par crit.
Si ce logiciel, ou la documentation qui l'accompagne, est concd sous licence au Gouvernement des Etats-Unis, ou toute entit qui dlivre la licence de ce logiciel
ou l'utilise pour le compte du Gouvernement des Etats-Unis, la notice suivante s'applique :
U.S. GOVERNMENT RIGHTS Programs, software, databases, and related documentation and technical data delivered to U.S. Government customers are
"commercial computer software" or "commercial technical data" pursuant to the applicable Federal Acquisition Regulation and agency-specific supplemental
regulations. As such, the use, duplication, disclosure, modification, and adaptation shall be subject to the restrictions and license terms set forth in the applicable
Government contract, and, to the extent applicable by the terms of the Government contract, the additional rights set forth in FAR 52.227-19, Commercial
Computer Software License (December 2007). Oracle America, Inc., 500 Oracle Parkway, Redwood City, CA 94065.
Ce logiciel ou matriel a t dvelopp pour un usage gnral dans le cadre d'applications de gestion des informations. Ce logiciel ou matriel n'est pas conu ni n'est
destin tre utilis dans des applications risque, notamment dans des applications pouvant causer des dommages corporels. Si vous utilisez ce logiciel ou matriel
dans le cadre d'applications dangereuses, il est de votre responsabilit de prendre toutes les mesures de secours, de sauvegarde, de redondance et autres mesures
ncessaires son utilisation dans des conditions optimales de scurit. Oracle Corporation et ses affilis dclinent toute responsabilit quant aux dommages causs
par l'utilisation de ce logiciel ou matriel pour ce type d'applications.
Oracle et Java sont des marques dposes d'Oracle Corporation et/ou de ses affilis. Tout autre nom mentionn peut correspondre des marques appartenant
d'autres propritaires qu'Oracle.
AMD, Opteron, le logo AMD et le logo AMD Opteron sont des marques ou des marques dposes d'Advanced Micro Devices. Intel et Intel Xeon sont des marques
ou des marques dposes d'Intel Corporation. Toutes les marques SPARC sont utilises sous licence et sont des marques ou des marques dposes de SPARC
International, Inc. UNIX est une marque dpose concde sous licence par X/Open Company, Ltd.
Ce logiciel ou matriel et la documentation qui l'accompagne peuvent fournir des informations ou des liens donnant accs des contenus, des produits et des services
manant de tiers. Oracle Corporation et ses affilis dclinent toute responsabilit ou garantie expresse quant aux contenus, produits ou services manant de tiers. En
aucun cas, Oracle Corporation et ses affilis ne sauraient tre tenus pour responsables des pertes subies, des cots occasionns ou des dommages causs par l'accs
des contenus, produits ou services tiers, ou leur utilisation.
110418@25097
Prface ...................................................................................................................................................11
10
11
Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster ............315
Prsentation de la mise jour de Oracle Solaris Cluster ............................................................... 315
Conseils pour les patchs Oracle Solaris Cluster ...................................................................... 316
Mise jour du logiciel Oracle Solaris Cluster ................................................................................. 317
Installez un patch avec rinitialisation (nud). ..................................................................... 318
Installation d'un patch avec rinitialisation (cluster) ............................................................ 322
Installation d'un patch Oracle Solaris Cluster sans rinitialisation ..................................... 325
Installation des patchs en mode utilisateur unique sur des nuds de basculement .......... 327
Modification d'un patch Oracle Solaris Cluster ..................................................................... 330
12
13
10
Prface
11
Prface
Conventions typographiques
Le tableau suivant dcrit les conventions typographiques utilises dans cet ouvrage.
TABLEAU P1
Conventions typographiques
Police de caractre
Signification
exemple
AaBbCc123
nom_ordinateur% su
aabbcc123
AaBbCc123
Reportez-vous au chapitre 6 du
Guide de lutilisateur.
AaBbCc123
Mot de passe :
12
Invites de shell
Shell
Invite
C shell
nom_machine%
Prface
TABLEAU P2
Invites de shell
(Suite)
Shell
Invite
machine_name#
Documentation associe
Des informations sur les rubriques de Oracle Solaris Cluster associes sont disponibles dans la
documentation rpertorie dans le tableau suivant. Toute la documentation de Oracle Solaris
Cluster est disponible l'adresse http://docs.sun.com.
Rubrique
Documentation
Prsentation
Concepts
Installation et administration du
matriel
Installation du logiciel
Dveloppement de services de
donnes
Administration du systme
Messages d'erreur
Pour obtenir la liste complte de la documentation Oracle Solaris Cluster, consultez les notes de
version relatives la version de votre logiciel Oracle Solaris Cluster sur http://docs.sun.com.
Documentation (http://docs.sun.com)
Support (http://www.oracle.com/us/support/systems/index.html)
Formation (http://education.oracle.com) Cliquez sur le lien Sun dans la barre de
navigation gauche.
13
Prface
Discutez de problmes techniques et trouvez des solutions sur les forums de discussion
(http://forums.oracle.com).
Passez la pratique grce aux didacticiels tape par tape avec Oracle By Example
(http://www.oracle.com/technology/obe/start/index.html).
Obtenir de l'aide
En cas de problmes d'installation ou d'utilisation de Oracle Solaris Cluster, veuillez contacter
votre fournisseur de services. en lui fournissant les informations suivantes.
Le numro de version d'Oracle Solaris Cluster (par exemple, Oracle Solaris Cluster 3.3)
Utilisez les commandes suivantes pour obtenir les informations sur votre systme destines
votre fournisseur de services.
14
Commande
Fonction
prtconf -v
psrinfo -v
showrev -p
SPARC : prtdiag -v
Prface
Commande
Fonction
/usr/cluster/bin/clnode show-rev
15
16
C H A P I T R E
Toutes les procdures indiques dans ce guide sont prvues pour le SE Oracle Solaris 10.
Un cluster global est constitu uniquement d'un ou de plusieurs nuds votants du cluster
global et ventuellement de nuds non votants du cluster global. Un cluster global peut inclure
galement des zones non globales de SE Linux, ou de marque native, qui ne sont pas des nuds,
mais des conteneurs haute disponibilit (comme des ressources). Un cluster de zones requiert
un cluster global. Pour des informations gnrales sur les clusters de zones, reportez-vous au
Oracle Solaris Cluster Concepts Guide.
Un cluster de zones est constitu uniquement d'un ou de plusieurs nuds votants de marque
cluster. Un cluster de zones dpend d'un cluster global et en requiert donc l'existence pralable.
Un cluster global ne contient pas de cluster de zones. Vous ne pouvez pas configurer un cluster
de zones en l'absence de cluster global. Un cluster de zones comporte au maximum un nud de
cluster de zones sur une machine. Un nud de cluster de zones peut fonctionner tant que le
nud votant du cluster de zones situ sur la mme machine fonctionne. Une dfaillance du
nud votant du cluster de zones sur une machine entrane la dfaillance de tous les nuds du
cluster de zones de cette machine.
17
Tches de gestion des donnes telles que l'installation, la configuration et la modification des
proprits des donnes. Ces tches sont dcrites dans le Oracle Solaris Cluster Data Services
Planning and Administration Guide.
En rgle gnrale, les tches d'administration peuvent tre effectues pendant que le cluster est
en cours d'utilisation. Si vous devez retirer un nud du cluster ou mme arrter ce nud, vous
pouvez le faire pendant que les autres nuds continuent effectuer des oprations du cluster.
Sauf indication contraire, les tches d'administration d'Oracle Solaris Cluster doivent tre
effectues sur le nud votant du cluster global. Minimisez l'impact sur le systme des
procdures ncessitant l'arrt total du cluster en programmant ces procdures en dehors des
heures de travail normales. Si vous prvoyez d'arrter le cluster ou un nud du cluster,
avertissez les utilisateurs l'avance.
Cration d'un cluster de zones crez un nouveau cluster de zones l'aide de la commande
clzonecluster configure. Reportez-vous aux instructions de la section Configuration
dun cluster de zones du Guide dinstallation du logiciel Oracle Solaris Cluster.
Suppression d'un nud dans un cluster de zones reportez-vous Suppression d'un nud
d'un cluster de zones la page 250.
pnm
svc:/system/cluster/pnm:default
cl_event
svc:/system/cluster/cl_event:default
cl_eventlog
svc:/system/cluster/cl_eventlog:default
rpc_pmf
svc:/system/cluster/rpc_pmf:default
rpc_fed
svc:/system/cluster/rpc_fed:default
19
Outils d'administration
TABLEAU 11
(Suite)
rgm
svc:/system/cluster/rgm:default
scdpm
svc:/system/cluster/scdpm:default
cl_ccra
svc:/system/cluster/cl_ccra:default
scsymon_srv
svc:/system/cluster/scsymon_srv:default
spm
svc:/system/cluster/spm:default
cl_svc_cluster_milestone
svc:/system/cluster/cl_svc_cluster_milestone:default
cl_svc_enable
svc:/system/cluster/cl_svc_enable:default
network-multipathing
svc:/system/cluster/network-multipathing
Outils d'administration
Vous pouvez effectuer des tches d'administration sur une configuration Oracle Solaris Cluster
par le biais d'une interface graphique ou en passant par la ligne de commande. La section qui
suit prsente une vue d'ensemble des outils interface graphique et des outils par ligne de
commande.
Interface graphique
Le logiciel Oracle Solaris Cluster fournit des outils dots d'une interface graphique l'aide
desquels vous pouvez effectuer diverses tches d'administration. Ces outils interface
graphique sont Oracle Solaris Cluster Manager, ainsi que Sun Management Center si vous
utilisez Oracle Solaris Cluster sur un systme SPARC. Pour plus d'informations sur la
configuration d'Oracle Solaris Cluster Manager et de Sun Management Center et sur les
procdures affrentes, reportez-vous au Chapitre 13, Administration de Oracle Solaris Cluster
avec les interfaces graphiques. Pour des informations spcifiques sur l'utilisation d'Oracle
Solaris Cluster Manager, reportez-vous l'aide en ligne de l'interface graphique.
20
Quorum
Outils d'administration
Groupes de ressources
Services de donnes
Interconnexion de clusters
Volumes et groupes de priphriques
Noms d'htes privs
Nouveaux nuds
Autres tches du cluster
D'autres commandes utilises pour administrer une configuration Oracle Solaris Cluster sont
fournies dans la liste suivante. Reportez-vous aux pages de manuel pour des informations plus
dtailles.
ccp(1M)
if_mpadm(1M)
claccess(1CL)
cldevice(1CL)
cldevicegroup(1CL)
clinterconnect(1CL)
clnasdevice(1CL)
clnode(1CL)
clquorum(1CL)
clreslogicalhostname(1CL)
clresource(1CL)
clresourcegroup(1CL)
clresourcetype(1CL)
clressharedaddress(1CL)
clsetup(1CL)
clsnmphost(1CL)
21
clsnmpmib(1CL)
clsnmpuser(1CL)
cltelemetryattribute(1CL)
cluster(1CL)
clvxvm(1CL)
clzonecluster(1CL)
22
d'un rseau de gestion. En gnral, vous installez et excutez les outils Cluster Control Panel
(CCP) et les outils interface graphique sur la console d'administration. Pour plus
d'informations sur CCP, reportez-vous la section tablissement d'une connexion distante au
cluster la page 26. Pour des instructions concernant l'installation du module Cluster Control
Panel pour Sun Management Center et les outils interface graphique d'Oracle Solaris Cluster
Manager, reportez-vous au Guide dinstallation du logiciel Oracle Solaris Cluster.
La console d'administration n'est pas un nud du cluster. La console d'administration permet
d'accder distance aux nuds du cluster, soit par l'intermdiaire du rseau public, soit via un
concentrateur de terminaux bas sur le rseau.
Si votre cluster SPARC est constitu d'un serveur Sun Enterprise 10000 d'Oracle, vous devez
vous connecter au processeur de services systme (SSP, System Service Processor) depuis la
console d'administration. Connectez-vous l'aide de la commande netcon. Par dfaut, la
commande netcon tablit la connexion un domaine Sun Enterprise 10000 via l'interface
rseau. Si le rseau n'est pas accessible, vous pouvez utiliser la commande netcon en mode
"exclusif" en activant l'option -f. Vous pouvez aussi saisir ~* pendant une session netcon
normale. Chacune de ces solutions vous offre la possibilit de basculer vers l'interface srie si le
rseau devient inaccessible.
L'usage d'une console d'administration ddie pour Oracle Solaris Cluster n'est pas
indispensable, mais prsente les avantages suivants :
Elle permet la gestion centralise du cluster en regroupant les outils de console et de gestion
sur la mme machine
Elle peut permettre une rsolution plus rapide des problmes par votre fournisseur de
services ou dans le cadre du contrat de maintenance Enterprise Services
Sauvegarde du cluster
Sauvegarder rgulirement votre cluster. Mme si le logiciel Oracle Solaris Cluster fournit un
environnement haut niveau de disponibilit et cre des copies en miroir des donnes sur les
priphriques de stockage, il ne remplace pas des sauvegardes rgulires. Une configuration
Oracle Solaris Cluster peut supporter des pannes rptes, mais ne protge pas des erreurs dues
aux programmes ou commises par les utilisateurs, ou encore des pannes catastrophiques. Vous
devez donc mettre en place une procdure de sauvegarde pour vous mettre l'abri des pertes de
donnes.
Nous recommandons d'inclure les informations suivantes dans votre sauvegarde :
toutes les bases de donnes si vous excutez des services de donnes SGDB ;
les informations concernant les partitions des disques de tous les disques du cluster ;
23
24
Tche
Outil
Instructions
Connectez-vous distance au
cluster.
Configurez interactivement le
cluster.
Dmarrez l'utilitaire
Accs aux utilitaires de
clzonecluster(1CL) ou l'utilitaire configuration du cluster
clsetup(1CL).
la page 28
Servez-vous de la commande
clnode(1CL) avec la
sous-commande et l'option
show-rev --v -node.
clresource(1CL)
clresourcegroup(1CL)
clresourcetype(1CL)
Administrez graphiquement
certains composants du cluster.
TABLEAU 12
(Suite)
Tche
Outil
Instructions
Excutez la commande
cluster(1CL) avec la
sous-commande status.
Affichage de la configuration du
cluster la page 36
Validation de la configuration de
base d'un cluster la page 45
Examinez le fichier
Affichage du contenu de journaux
/var/cluster/logs/ commandlog. de commandes Oracle Solaris
Cluster la page 49
Examinez le fichier
/var/adm/messages.
25
Avant de
commencer
Assurez-vous que les conditions suivantes sont remplies avant de dmarrer CCP :
Assurez-vous que la variable PATH sur la console d'administration inclut les rpertoires des
outils Oracle Solaris Cluster, /opt/SUNWcluster/bin et /usr/cluster/bin. Vous pouvez
spcifier un emplacement de rechange pour le rpertoire des outils en dfinissant la variable
d'environnement $CLUSTER_HOME.
26
Pour dmarrer une session distance sur le cluster, cliquez sur l'icne cconsole, l'icne crlogin,
l'icne cssh ou l'icne ctelnet dans la zone de lancement CCP.
Avant de
commencer
scurise chaque priphrique d'accs par console. Le numro de port par dfaut pour la
connexion par shell scuris est 22.
Pour plus d'informations, reportez-vous aux pages de manuel clusters(4) et serialports(4).
1
-s
-l username
-p ssh-port
27
Pour afficher les actions disponibles dans cet utilitaire, entrez l'option suivante :
clzc:sczone> ?
3
Voir aussi
28
Slectionnez votre configuration dans le menu. Suivez les instructions qui s'affichent l'cran
pour effectuer une tche. Pour en savoir plus, reportez-vous aux instructions de la section
Configuration dun cluster de zonesdu Guide dinstallation du logiciel Oracle Solaris Cluster.
Pour plus d'informations, reportez-vous l'aide en ligne de clsetup ou de clzonecluster.
Les versions de mise jour de Oracle Solaris Cluster sont identifies par le numro de patch du
produit principal et la version de la mise jour.
Exemple 11
29
Cette commande affiche le numro de version de Oracle Solaris Cluster et les chanes de
versions de tous les packages Oracle Solaris Cluster.
Exemple 12
30
SUNWschtt:
3.2.0,REV=2006.12.06.18.32
SUNWscs1as:
3.2.0,REV=2006.12.06.18.32
SUNWsckrb5:
3.2.0,REV=2006.12.06.18.32
SUNWscnfs:
3.2.0,REV=2006.12.06.18.32
SUNWscor:
3.2.0,REV=2006.12.06.18.32
SUNWscs1mq:
3.2.0,REV=2006.12.06.18.32
SUNWscsap:
3.2.0,REV=2006.12.06.18.32
SUNWsclc:
3.2.0,REV=2006.12.06.18.32
SUNWscsapdb: 3.2.0,REV=2006.12.06.18.32
SUNWscsapenq: 3.2.0,REV=2006.12.06.18.32
SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32
SUNWscsapscs: 3.2.0,REV=2006.12.06.18.32
SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32
SUNWscsbl:
3.2.0,REV=2006.12.06.18.32
SUNWscsyb:
3.2.0,REV=2006.12.06.18.32
SUNWscwls:
3.2.0,REV=2006.12.06.18.32
SUNWsc9ias:
3.2.0,REV=2006.12.06.18.32
SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32
SUNWsczone:
3.2.0,REV=2006.12.06.18.32
SUNWscdhc:
3.2.0,REV=2006.12.06.18.32
SUNWscebs:
3.2.0,REV=2006.12.06.18.32
SUNWscmqi:
3.2.0,REV=2006.12.06.18.32
SUNWscmqs:
3.2.0,REV=2006.12.06.18.32
SUNWscmys:
3.2.0,REV=2006.12.06.18.32
SUNWscsge:
3.2.0,REV=2006.12.06.18.32
SUNWscsaa:
3.2.0,REV=2006.12.06.18.32
SUNWscsag:
3.2.0,REV=2006.12.06.18.32
SUNWscsmb:
3.2.0,REV=2006.12.06.18.32
SUNWscsps:
3.2.0,REV=2006.12.06.18.32
SUNWsctomcat: 3.2.0,REV=2006.12.06.18.32
Avant de
commencer
Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser cette sous-commande.
31
Affichez les types de ressources, les groupes de ressources et les ressources configurs du
cluster. Effectuez toutes les tapes de cette procdure partir d'un nud du cluster global.
phys-schost# cluster show -t resource,resourcetype,resourcegroup
Pour afficher les informations concernant une ressource, un groupe de ressources ou un type de
ressources particulier, utilisez la sous-commande show et l'une des sous-commandes suivantes :
Exemple 13
resource
resource group
resourcetype
SUNW.qfs
SAM-QFS Agent on Oracle Solaris Cluster
3.1
3
/opt/SUNWsamfs/sc/bin
False
False
All potential masters
<All>
True
<NULL>
False
qfs-rg
<NULL>
Failover
Managed
False
phys-schost-2 phys-schost-1
32
qfs-res
SUNW.qfs
3.1
qfs-rg
default
True
Enabled{phys-schost-1}:
Monitored{phys-schost-2}:
Monitored{phys-schost-1}:
True
True
True
zones.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Avant de
commencer
Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser la sous-commande status.
Vrifiez le statut des composants du cluster. Effectuez toutes les tapes de cette procdure
partir d'un nud du cluster global.
phys-schost# cluster status
Exemple 14
Status
-----Online
Online
33
Endpoint1
--------phys-schost-1:qfe1
phys-schost-1:hme1
Endpoint2
--------phys-schost-4:qfe1
phys-schost-4:hme1
Status
-----Path online
Path online
Present
------3
Possible
-------4
Present
------1
1
Possible
-------1
1
Status
-----Online
Online
Present
Possible
-------------1
1
0
1
Status
-----Online
Offline
Primary
------phys-schost-2
Secondary
---------
Status
-----Degraded
Spare Nodes
-----------
Inactive Nodes
--------------
In Transistion Nodes
--------------------
34
Group Name
---------test-rg
Node Name
Suspended
----------------phys-schost-1
No
phys-schost-2
No
test-rg
phys-schost-1
phys-schost-2
No
No
Status
-----Offline
Online
Offline
Error--stop failed
test-rg
phys-schost-1
phys-schost-2
No
No
Online
Online
Node Name
Status
-------------phys-schost-1
Offline
phys-schost-2
Online
Message
------Offline
Online
test_1
phys-schost-1
phys-schost-2
Offline
Stop failed
Offline
Faulted
test_1
phys-schost-1
phys-schost-2
Online
Online
Online
Online
Device Instance
--------------/dev/did/rdsk/d2
Node
---phys-schost-1
Status
-----Ok
/dev/did/rdsk/d3
phys-schost-1
phys-schost-2
Ok
Ok
/dev/did/rdsk/d4
phys-schost-1
phys-schost-2
Ok
Ok
/dev/did/rdsk/d6
phys-schost-2
Ok
Node Name
--------schost-1
schost-2
Zone HostName
------------sczone-1
sczone-2
Status
-----Online
Online
Zone Status
----------Running
Running
35
Pour vrifier le statut des groupes IPMP (IP Network Multipathing), utilisez la commande
clnode(1CL) et la sous-commande status .
Avant de
commencer
Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser cette sous-commande.
Vrifiez le statut des composants du cluster. Effectuez toutes les tapes de cette procdure
partir d'un nud du cluster global.
phys-schost# clnode status -m
Exemple 15
Group Name
---------test-rg
test-rg
Status
-----Online
Online
Adapter
------qfe1
qfe1
Status
-----Online
Online
Avant de
commencer
Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser la sous-commande status.
Affichez la configuration d'un cluster global ou d'un cluster de zones. Effectuez toutes les tapes
de cette procdure partir d'un nud du cluster global.
% cluster show
36
En excutant la commande cluster show partir d'un nud votant du cluster global, vous
pouvez afficher des informations de configuration dtailles concernant le cluster ainsi que des
informations concernant les clusters de zones ventuellement configurs.
Vous pouvez galement vous servir de la commande clzonecluster show pour afficher
uniquement les informations de configuration du cluster de zones. Les proprits d'un cluster
de zones sont notamment son nom, le type d'IP, l'autoinitialisation et le chemin de la zone. La
sous-commande show s'excute l'intrieur d'un cluster de zones et s'applique uniquement au
cluster de zones concern. Excuter la commande clzonecluster show partir d'un nud
d'un cluster de zones permet uniquement d'extraire le statut des objets visibles pour le cluster de
zones concern.
Pour afficher de plus amples informations sur la commande cluster, servez-vous des options
dtailles. Reportez-vous la page de manuel cluster(1CL) pour plus de dtails.
Reportez-vous la page de manuel clzonecluster(1CL) pour plus d'informations sur
clzonecluster.
Exemple 16
cluster-1
disabled
10000
1000
172.16.0.0
255.255.248.0
64
10
Unknown
phys-schost-1
phys_schost-2:za
clustser-1
phys-schost-1, phys-schost-2:za
sys
phys-schost-1
1
cluster
yes
37
privatehostname:
reboot_on_path_failure:
globalzoneshares:
defaultpsetmin:
quorum_vote:
quorum_defaultvote:
quorum_resv_key:
Transport Adapter List:
clusternode1-priv
disabled
3
1
1
1
0x43CB1E1800000001
qfe3, hme0
Adapter:
qfe3
State:
Enabled
Transport Type:
dlpi
Property(device_name):
qfe
Property(device_instance):
3
Property(lazy_free):
1
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.1.1
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled
Transport
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter:
hme0
State:
Enabled
Transport Type:
dlpi
Property(device_name):
hme
Property(device_instance):
0
Property(lazy_free):
0
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.0.129
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled
Event
Disabled
SNMPv2
--- SNMP Host Configuration on phys-schost-1 ----- SNMP User Configuration on phys-schost-1 --SNMP User Name:
Authentication Protocol:
Default User:
Node Name:
Node ID:
Type:
38
foo
MD5
No
phys-schost-2:za
2
cluster
Enabled:
privatehostname:
reboot_on_path_failure:
globalzoneshares:
defaultpsetmin:
quorum_vote:
quorum_defaultvote:
quorum_resv_key:
Transport Adapter List:
yes
clusternode2-priv
disabled
1
2
1
1
0x43CB1E1800000002
hme0, qfe3
Adapter:
hme0
State:
Enabled
Transport Type:
dlpi
Property(device_name):
hme
Property(device_instance):
0
Property(lazy_free):
0
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.0.130
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled
Transport
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter:
qfe3
State:
Enabled
Transport Type:
dlpi
Property(device_name):
qfe
Property(device_instance):
3
Property(lazy_free):
1
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.1.2
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled
Event
Disabled
SNMPv2
--- SNMP Host Configuration on phys-schost-2 ----- SNMP User Configuration on phys-schost-2 --=== Transport Cables ===
Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:
phys-schost-1:qfe3,switch2@1
phys-schost-1:qfe3
switch2@1
Enabled
39
Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:
phys-schost-1:hme0,switch1@1
phys-schost-1:hme0
switch1@1
Enabled
Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:
phys-schost-2:hme0,switch1@2
phys-schost-2:hme0
switch1@2
Enabled
Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:
phys-schost-2:qfe3,switch2@2
phys-schost-2:qfe3
switch2@2
Enabled
switch2
Enabled
switch
1 2
Enabled
Enabled
Transport Switch:
Switch State:
Switch Type:
Switch Port Names:
Switch Port State(1):
Switch Port State(2):
switch1
Enabled
switch
1 2
Enabled
Enabled
d3
qs1
yes
1
qs1
quorum_server
phys-schost-1, phys-schost-2
10.11.114.83
9000
yes
1
/dev/did/rdsk/d3s2
scsi
scsi2
phys-schost-1, phys-schost-2
40
testdg3
SVM
no
Node List:
preferenced:
numsecondaries:
diskset name:
phys-schost-1, phys-schost-2
yes
1
testdg3
SUNW.LogicalHostname:2
Logical Hostname Resource Type
2
2
/usr/cluster/lib/rgm/rt/hafoip
False
False
All potential masters
<All>
True
SUNWscu
True
Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:
SUNW.SharedAddress:2
HA Shared Address Resource Type
2
2
/usr/cluster/lib/rgm/rt/hascip
False
False
<Unknown>
<All>
True
SUNWscu
True
Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:
SUNW.HAStoragePlus:4
HA Storage Plus
4
2
/usr/cluster/lib/rgm/rt/hastorageplus
False
False
All potential masters
<All>
False
SUNWscu
False
Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:
SUNW.haderby
haderby server for Oracle Solaris Cluster
1
7
/usr/cluster/lib/rgm/rt/haderby
False
False
All potential masters
<All>
False
SUNWscderby
False
41
Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:
SUNW.sctelemetry
sctelemetry service for Oracle Solaris Cluster
1
7
/usr/cluster/lib/rgm/rt/sctelemetry
True
False
All potential masters
<All>
False
SUNWsctelemetry
False
HA_RG
<Null>
Failover
Managed
False
phys-schost-1 phys-schost-2
HA_R
SUNW.HAStoragePlus:4
4
HA_RG
SCSLM_HA_RG
True
True
True
True
cl-db-rg
<Null>
Failover
Managed
False
phys-schost-1 phys-schost-2
42
cl-db-rs
SUNW.haderby
1
cl-db-rg
default
True
True
True
True
cl-tlmtry-rg
<Null>
RG_mode:
RG_state:
Failback:
Nodelist:
Scalable
Managed
False
phys-schost-1 phys-schost-2
cl-tlmtry-rs
SUNW.sctelemetry
1
cl-tlmtry-rg
default
True
True
True
True
/dev/did/rdsk/d1
phys-schost-1:/dev/rdsk/c0t2d0
none
global
/dev/did/rdsk/d2
phys-schost-1:/dev/rdsk/c1t0d0
none
global
/dev/did/rdsk/d3
phys-schost-2:/dev/rdsk/c2t1d0
phys-schost-1:/dev/rdsk/c2t1d0
none
global
/dev/did/rdsk/d4
phys-schost-2:/dev/rdsk/c2t2d0
phys-schost-1:/dev/rdsk/c2t2d0
none
global
/dev/did/rdsk/d5
phys-schost-2:/dev/rdsk/c0t2d0
none
global
/dev/did/rdsk/d6
phys-schost-2:/dev/rdsk/c1t0d0
none
global
nas_filer1
netapp
root
43
Nas Device:
Type:
User ID:
Exemple 17
nas2
netapp
llai
sczone
sczone
/zones/sczone
TRUE
shared
TRUE
44
Resource Name:
address:
physical:
net
172.16.0.1
auto
Resource Name:
address:
physical:
net
172.16.0.2
auto
Resource Name:
dir:
special:
raw:
type:
options:
fs
Resource Name:
dir:
special:
raw:
type:
options:
fs
Resource Name:
dir:
special:
raw:
type:
options:
fs
Resource Name:
dir:
special:
raw:
fs
/gz/db_qfs/CrsHome
CrsHome
samfs
[]
/gz/db_qfs/CrsData
CrsData
samfs
[]
/gz/db_qfs/OraHome
OraHome
samfs
[]
/gz/db_qfs/OraData
OraData
type:
options:
samfs
[]
sczone-1
sczone-1
lzzone-1
Node Name:
physical-host:
hostname:
sczone-2
sczone-2
lzzone-2
Vous pouvez galement afficher les priphriques NAS configurs pour les clusters de zone et
les clusters globaux, l'aide de la sous-commande clnasdevice show ou d'Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous la page de manuel
clnasdevice(1CL).
45
verify pour plusieurs nuds, un rapport distinct est gnr pour chaque nud ainsi qu'un
rapport global pour l'ensemble des vrifications. La sous-commande verify n'est pas autorise
l'intrieur d'un cluster de zones.
1
Vrifiez la configuration du cluster de zones pour contrler si un cluster de zones peut tre
install.
phys-schost# clzonecluster verify zoneclustername
Exemple 18
Exemple 19
check:
check:
check:
check:
check:
check:
check:
check:
check:
check:
46
cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
-----------------------------------CHECK ID : 3065
SEVERITY : HIGH
FAILURE : Global filesystem /etc/vfstab entries are not consistent across
all Oracle Solaris Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across
all nodes in this cluster.
Analysis indicates:
FileSystem /global/phys-schost-1 is on phys-schost-1 but missing from phys-schost-2.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the
filesystem(s) in question.
...
#
cluster ayant affect les priphriques ou les composants de gestion des volumes.
1
47
Exemple 110
48
are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x.
...
#
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
Date et horodatage.
49
ID de processus de la commande.
Par dfaut, le fichier commandlog est archiv une fois par semaine. Pour modifier les stratgies
d'archivage du fichier commandlog, excutez la commande crontab sur chaque nud du
cluster. Pour plus d'informations, reportez-vous la page de manuel crontab(1).
tout moment, le logiciel Oracle Solaris Cluster conserve sur chaque nud du cluster jusqu'
huit fichiers commandlog prcdemment archivs. Le fichier commandlog de la semaine en
cours est nomm commandlog. Le fichier portant sur une semaine entire le plus rcent est
nomm commandlog.0. Le fichier portant sur une semaine entire le plus ancien est nomm
commandlog.7.
Exemple 111
50
C H A P I T R E
Ce chapitre dcrit le contrle d'accs bas sur les rles (RBAC, Role Based Access Control) en
relation avec Oracle Solaris Cluster. Les rubriques sont les suivantes :
Instructions
Configurer et utiliser
Chapitre 9, Using Role-Based Access Control (Tasks) du System Administration
RBAC et grer les lments Guide: Security Services
En savoir plus sur les
lments et les outils de
RBAC
51
solaris.cluster.admin
solaris.cluster.modify
Pour plus d'informations sur l'autorisation RBAC requise par une commande Oracle Solaris
Cluster, reportez-vous la page de manuel relative la commande.
Les profils de droits RBAC incluent une ou plusieurs autorisations RBAC. Vous pouvez assigner
ces profils de droits aux utilisateurs ou aux rles pour leur donner diffrents niveaux d'accs
Oracle Solaris Cluster. Oracle a dfini les profils de droits d'accs suivants dans le logiciel Oracle
Solaris Cluster.
Remarque Les profils de droits RBAC rpertoris dans le tableau suivant continuent de prendre
en charge les anciennes autorisations RBAC telles que dfinies dans les prcdentes versions de
Oracle Solaris Cluster.
Autorisations incluses
Commandes
Oracle Solaris
Cluster
Aucune, mais inclut une liste de commandes Oracle Excute les commandes Oracle Solaris Cluster
Solaris Cluster s'excutant avec euid=0
slectionnes que vous utilisez pour configurer et grer un
cluster, y compris les sous-commandes suivantes pour
toutes les commandes Oracle Solaris Cluster :
list
show
status
scha_control(1HA)
scha_resource_get(1HA)
scha_resource_setstatus(1HA)
scha_resourcegroup_get(1HA)
scha_resourcetype_get(1HA)
52
Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster
Autorisations incluses
Utilisateur Oracle
Solaris de base
Fonctionnement
du cluster
solaris.cluster.admin
Administrateur
systme
Gestion du cluster
solaris.cluster.modify
Avant de
commencer
53
Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster
Description
Description du rle.
Role ID Number
Role Shell
54
Server
Path
Add
Delete
Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster
Remarque Vous devez placer ce profil en premire position dans la liste des profils assigns ce
rle.
4
Ajoutez les utilisateurs devant utiliser les fonctions Oracle Solaris Cluster Manager ou les
commandes Oracle Solaris Cluster avec le nouveau rle cr.
Utilisez la commande useradd(1M) pour ajouter un compte utilisateur au systme. L'option -P
permet d'attribuer un rle un compte utilisateur.
Pour les rles dfinis dans l'tendue locale, utilisez la commande roleadd(1M) pour dfinir
un nouveau rle local et ses attributs.
Ou, pour les rles dfinis dans l'tendue locale, modifiez le fichier user_attr(4) pour
ajouter un utilisateur avec type=role.
Utilisez cette mthode uniquement si vous n'avez pas d'autre choix.
Pour les rles appartenant un service de noms, utilisez la commande smrole(1M) pour
dfinir le nouveau rle et ses attributs.
Cette commande requiert une authentification par un superutilisateur ou un rle capable de
crer d'autres rles. Vous pouvez appliquer la commande smrole tous les services de
noms. Cette commande s'excute en tant que client du serveur de la console de gestion
Solaris.
55
Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster
Exemple 21
Pour afficher le nouveau rle cr (et tous les autres rles), utilisez la commande smrole avec
l'option list, comme suit :
# /usr/sadm/bin/smrole list -Authenticating as user: primaryadmin
Type /? for help, pressing <enter> accepts the default denoted by [ ]
Please enter a string value for: password ::
<type primaryadmin password>
Loading Tool: com.sun.admin.usermgr.cli.role.UserMgrRoleCli from myHost
Login to myHost as user primaryadmin was successful.
Download of com.sun.admin.usermgr.cli.role.UserMgrRoleCli from myHost was successful.
root
0
Super-User
primaryadmin
100
Most powerful role
sysadmin
101
Performs non-security admin tasks
oper2
102
Custom Operator
56
Avant de
commencer
Modification des proprits RBAC d'un utilisateur par le biais de l'outil User Accounts
la page 57
Modification des proprits RBAC d'un utilisateur partir de la ligne de commande
la page 58
Cliquez sur l'icne User Account (Compte utilisateur) modifier et slectionnez Properties
(Proprits) dans le menu Action (ou cliquez deux fois sur l'icne du compte utilisateur).
Cliquez sur l'onglet appropri de la bote de dialogue pour la proprit modifier, comme suit :
Pour modifier les rles assigns l'utilisateur, cliquez sur l'onglet Roles (Rles) et dplacez
l'affectation de rle modifier dans la colonne approprie : Available Roles (Rles
disponibles) ou Assigned Roles (Rles assigns).
Pour modifier les profils de droits assigns l'utilisateur, cliquez sur l'onglet Rights (Droits)
et dplacez-le vers la colonne approprie : Available Rights (Droits disponibles) ou Assigned
Rights (Droits assigns).
Remarque vitez d'assigner des profils de droits directement aux utilisateurs. L'approche
prfre est de demander aux utilisateurs d'endosser un rle pour pouvoir utiliser des
applications privilgies. Cette stratgie dcourage les utilisateurs d'abuser de leurs droits.
57
Pour modifier les autorisations, rles ou profils de droits assigns un utilisateur dfini dans
l'tendue locale, utilisez la commande usermod(1M).
Ou, pour modifier les autorisations, rles ou profils de droits assigns un utilisateur dfini
dans l'tendue locale, modifiez le fichier user_attr.
Utilisez cette mthode uniquement si vous n'avez pas d'autre choix.
Pour modifier les autorisations, rles ou profils de droits assigns un utilisateur dfini dans
un service de noms, utilisez la commande smuser(1M).
Cette commande requiert de s'authentifier en tant que superutilisateur ou avec un autre rle
autoris modifier les fichiers utilisateur. Vous pouvez appliquer la commande smuser
tous les services de noms. smuser s'excute en tant que client du serveur Solaris
Management Console.
58
C H A P I T R E
Pour une description de haut niveau des procdures associes dans ce chapitre, reportez-vous
la section Initialisation d'un nud en mode non cluster la page 79 et Tableau 32.
59
Les commandes cluster shutdown et clzonecluster halt arrtent tous les nuds dans un
cluster global ou un cluster de zones, respectivement, en effectuant les actions suivantes :
1. Met hors ligne tous les groupes de ressources en cours d'excution.
2. Dmonte tous les systmes de fichier du cluster pour un cluster global ou un cluster de
zones.
3. La commande cluster shutdown ferme les services de priphriques actifs sur un cluster
global ou un cluster de zones.
4. La commande cluster shutdown excute init 0 et met tous les nuds du cluster sur
l'invite OpenBoot PROM ok sur un systme bas sur SPARC ou sur le message Appuyez sur
une touche pour continuer dans le menu GRUB d'un systme bas sur x86. Les menus
GRUB sont dcrits de manire plus dtaille dans la section Booting an x86 Based System
by Using GRUB (Task Map) du System Administration Guide: Basic Administration. La
commande clzonecluster halt effectue la commande zoneadm-zzoneclustername halt
pour arrter (mais pas fermer) les zones du cluster de zones.
Remarque Si ncessaire, vous pouvez initialiser un nud en mode non cluster afin que le nud
ne participe pas l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du
logiciel du cluster ou pour effectuer certaines procdures administratives. Pour plus
d'informations, reportez-vous la section Initialisation d'un nud en mode non cluster
la page 79.
TABLEAU 31
60
Tche
Instructions
Arrtez le cluster.
Rinitialisez le cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Si votre cluster global ou votre cluster de zones excute Oracle Real Application Clusters (RAC),
fermez toutes les instances de la base de donnes sur le cluster que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.
Fermez le cluster global. Cette action ferme galement tous les clusters de zones.
phys-schost# cluster shutdown -g0 -y
Vous pouvez galement utiliser la commande cluster shutdown au sein d'un cluster de
zones pour fermer tous les clusters de zones.
61
Vrifiez que tous les nuds du cluster global ou du cluster de zones affichent l'invite ok sur un
systme bas sur SPARC ou un menu GRUB sur un systme bas sur x86.
N'teignez pas de nud avant que tous les nuds soient associs l'invite ok sur un systme
bas sur SPARC ou un sous-systme d'initialisation sur un systme bas sur x86.
Vrifiez que les nuds du cluster global sont associs l'invite ok sur un systme bas sur
SPARC ou au message Appuyez sur une touche pour continuer sur les systmes x86
bass sur GRUB.
phys-schost# cluster status -t node
Exemple 31
Exemple 32
62
Exemple 33
Voir aussi
63
Initialisez chaque nud en mode cluster. Effectuez toutes les tapes de cette procdure depuis
un nud du cluster global.
Si vous avez un cluster de zones, vous pouvez initialiser le cluster de zones entier.
phys-schost# clzonecluster boot zoneclustername
Si vous avez plus d'un cluster de zones, vous pouvez initialiser tous les clusters de zones.
Utilisez + la place de zoneclustername.
Vrifiez que les nuds ont t initialiss sans erreur et sont en ligne.
La commande de statut cluster(1CL) rapporte le statut des nuds du cluster global.
phys-schost# cluster status -t node
64
Exemple 34
65
Si votre cluster excute Oracle RAC, fermez toutes les instances de la base de donnes sur le
cluster que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.
Fermez le cluster.
Si vous avez un cluster de zones, fermez le cluster de zones depuis un nud du cluster
global.
phys-schost# clzonecluster halt zoneclustername
Chaque nud est ferm. Vous pouvez galement utiliser la commande cluster shutdown au
sein d'un cluster de zones pour fermer le cluster de zones.
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion
Pour un nud du cluster global d'un systme SPARC, excutez la commande suivante.
ok boot
Pour un nud du cluster global d'un systme x86, excutez les commandes suivantes.
Lorsque le menu GRUB s'affiche, slectionnez l'entre SE Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
66
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion
Pour un cluster de zones, entrez la commande suivante sur un nud unique du cluster
global pour initialiser le cluster de zones.
phys-schost# clzonecluster boot zoneclustername
Des messages apparaissent sur les consoles des nuds initialiss en mme temps que les
composants du cluster sont activs.
5
Vrifiez que les nuds ont t initialiss sans erreur et sont en ligne.
Vous pouvez galement excuter la commande cluster status au sein d'un cluster de
zones pour afficher le statut des nuds.
Remarque Si le systme de fichier /var d'un nud se remplit, Oracle Solaris Cluster ne
pourra peut-tre pas redmarrer sur ce nud. Si ce problme survient, reportez-vous la
section Rparation d'un systme de fichiers /var complet la page 82.
Exemple 35
67
Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster sparse-sczone joined.
Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster sparse-sczone joined.
Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster sparse-sczone joined.
phys-schost#
phys-schost# clzonecluster status
=== Zone Clusters ===
--- Zone Cluster Status --Name
---sparse-sczone
Node Name
--------schost-1
schost-2
schost-3
schost-4
Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4
Status
-----Online
Online
Online
Online
Zone Status
----------Running
Running
Running
Running
phys-schost#
Exemple 36
68
Tche
Outil
Instructions
Arrtez un nud.
69
TABLEAU 32
(Suite)
Tche
Outil
Instructions
Dmarrez un nud.
Arrtez et redmarrez
Pour un nud du cluster
(rinitialisez) un nud sur un global, utilisez clnode
cluster.
evacuate et shutdown, suivi
de boot
Le nud doit disposer d'une
ou b.
connexion qui fonctionne
avec l'interconnexion de
Pour un nud du cluster de
cluster pour atteindre
zones, utilisez
clzonecluster(1CL)reboot.
l'appartenance au cluster.
70
Si votre cluster excute Oracle RAC, fermez toutes les instances de la base de donnes sur le
cluster que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.
Si vous souhaitez arrter un membre spcifique du cluster de zones, ignorez les tapes 4 6 et
excutez la commande suivante depuis un nud du cluster global.
phys-schost# clzonecluster halt -n physical-name zoneclustername
Lorsque vous spcifiez un nud particulier du cluster de zones, vous n'arrtez que ce nud. Par
dfaut, la commande halt arrte les clusters de zones sur tous les nuds.
4
Commutez tous les groupes de ressources, les ressources et les groupes de priphriques depuis
le nud en cours de fermeture vers les autres membres du cluster global.
Sur le nud fermer du cluster global, entrez la commande suivante. La commande clnode
evacuate commute tous les groupes de ressources et de priphriques, y compris toutes les
zones non-globales, depuis le nud spcifi vers le prochain nud de prdilection. (Vous
pouvez galement excuter la commande clnode evacuate au sein d'un nud du cluster de
zones.
phys-schost# clnode evacuate node
node
5
Fermez le nud.
Spcifiez le nud du cluster global que vous souhaitez fermer.
phys-schost# shutdown -g0 -y -i0
Vrifiez que le nud du cluster global affiche l'invite ok sur un systme SPARC ou le message
Appuyez sur une touche pour continuer dans le menu GRUB d'un systme x86.
6
Exemple 37
71
Exemple 39
72
Node Name
--------schost-1
schost-2
schost-3
schost-4
Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4
Status
-----Online
Online
Online
Online
Zone Status
----------Running
Running
Running
Running
phys-schost#
phys-schost# clzonecluster halt -n schost-4 sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep 5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster sparse-sczone died.
phys-host#
phys-host# clzonecluster status
=== Zone Clusters ===
--- Zone Cluster Status --Name
---sparse-sczone
Node Name
--------schost-1
schost-2
schost-3
schost-4
Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4
Status
-----Online
Online
Offline
Online
Zone Status
----------Running
Running
Installed
Running
phys-schost#
Voir aussi
73
Remarque Le dmarrage d'un nud peut tre affect par la configuration du quorum. Dans un
cluster deux nuds, vous devez avoir un priphrique de quorum configur afin que le
nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque nud
et un nombre du quorum pour le priphrique de quorum. Dans cette situation, si le premier
nud est ferm, le second nud continue d'avoir le quorum et s'excute en tant que seul
membre du cluster. Pour que le premier nud reviennent dans le cluster en tant que nud du
cluster, le second nud doit tre oprationnel et en cours d'excution. Le nombre requis de
quorum du cluster (deux) doit tre prsent.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion
Pour dmarrer un nud du cluster global ou un nud du cluster de zones qui a t ferm,
initialisez le nud. Effectuez toutes les tapes de cette procdure depuis un nud du cluster
global.
ok boot
Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
Des messages apparaissent sur les consoles des nuds initialiss en mme temps que les
composants du cluster sont activs.
74
Un nud du cluster de zones peut uniquement tre initialis en mode cluster lorsque le
nud hbergeant le nud est initialis en mode cluster.
Remarque Si le systme de fichier /var d'un nud se remplit, Oracle Solaris Cluster ne
pourra peut-tre pas redmarrer sur ce nud. Si ce problme survient, reportez-vous la
section Rparation d'un systme de fichiers /var complet la page 82.
Exemple 310
75
Sinon, le nud ne sera pas disponible pour prendre la place de services d'autres nuds du
cluster que vous fermez ou rinitialisez. Pour plus d'informations propos de la rinitialisation
d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrt,
dsinstallation et clonage de zones non globales (tches) du Guide dadministration systme :
Gestion des ressources des conteneurs et des zones Oracle Solaris.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Si le nud du cluster global ou du cluster de zones excute Oracle RAC, fermez toutes les
instances de la base de donnes sur le nud que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.
Fermez le nud du cluster global l'aide des commandes clnode evacuate et shutdown.
Fermez le cluster de zones l'aide de la commande clzonecluster halt excute sur un nud
du cluster global. (Les commandes clnode evacuate et shutdown fonctionnent galement
dans un cluster de zones.)
Pour un cluster global, entrez les commandes suivantes sur le nud fermer. La commande
clnode evacuate bascule tous les groupes de priphriques du nud spcifi vers le prochain
nud de prdilection. La commande commute galement tous les groupes de ressources des
zones globales ou non-globales du nud spcifi vers les prochaines zones globales ou
non-globales de prdilection d'autres nuds.
Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
76
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion
Exemple 311
77
Exemple 313
78
"sparse-sczone"...
Sep 5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
sparse-sczone died.
phys-schost# Sep 5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
sparse-sczone joined.
phys-schost#
phys-schost# clzonecluster status
=== Zone Clusters ===
--- Zone Cluster Status --Name
Node Name
-----------sparse-sczone schost-1
schost-2
schost-3
schost-4
Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4
Status
-----Online
Online
Online
Online
Zone Status
----------Running
Running
Running
Running
phys-schost#
79
ressources des zones globales ou non-globales du nud spcifi vers les prochaines zones
globales ou non-globales de prdilection d'autres nuds.
Fermez un nud spcifique du cluster de zones partir d'un nud du cluster global.
phys-schost# clzonecluster halt -n node zoneclustername
Vous pouvez galement utiliser les commandes clnode evacuate et shutdown dans un
cluster de zones.
3
Vrifiez que le nud du cluster global affiche l'invite ok sur un systme Oracle Solaris ou le
message Press any key to continue dans le menu GRUB d'un systme x86.
a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
80
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.
d. Appuyez sur la touche Entre pour accepter la modification et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-
n'est pas conserve, lors du prochain dmarrage du systme. La prochaine fois que vous
rinitialisez le nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -x la commande des paramtres d'initialisation du noyau.
Exemple 314
81
82
Connectez-vous en tant que superutilisateur sur le nud du cluster dont le systme de fichiers
/var est complet.
83
84
C H A P I T R E
Ce chapitre dcrit les technologies de rplication de donnes que vous pouvez utiliser avec le
logiciel Oracle Solaris Cluster. La rplication de donnes dsigne la copie de donnes d'un
priphrique de stockage principal vers un priphrique de sauvegarde ou secondaire. En cas de
dfaillance du priphrique principal, vos donnes sont disponibles sur le priphrique
secondaire. La rplication de donnes assure la haute disponibilit et la tolrance de sinistre de
votre cluster.
Le logiciel Oracle Solaris Cluster prend en charge les mthodes de rplication de donnes
suivantes :
Entre clusters - Utiliser Oracle Solaris Cluster Geographic Edition pour la reprise sur
sinistre
Dans un cluster - Utiliser cette mthode en tant qu'alternative la mise en miroir base sur
les htes dans un cluster de campus.
Pour effectuer la rplication de donnes, vous devez disposer d'un groupe de priphriques dont
le nom est identique celui de l'objet que vous rpliquez. Un priphrique ne peut appartenir
qu' un seul groupe de priphriques la fois. Ainsi, s'il appartient dj un groupe de
priphriques Oracle Solaris Cluster, vous devez le supprimer avant de l'ajouter un nouveau
groupe de priphriques. Pour obtenir des instructions sur la cration et la gestion de Solaris
Volume Manager, Veritas Volume Manager, ZFS ou les groupes de priphriques de disque
brut, reportez-vous la section Administration de groupes de priphriques la page 123 du
chapitre 5.
Avant de slectionner la mthode de rplication de donnes la mieux adapte votre cluster,
vous devez vous familiariser avec les deux mthodes de rplication (base sur les htes et base
sur le stockage). Pour de plus amples informations sur l'utilisation d'Oracle Solaris Cluster
Geographic Edition pour grer la rplication de donnes dans le cadre de la reprise sur sinistre,
reportez-vous la section Oracle Solaris Cluster Geographic Edition Overview.
Ce chapitre contient les sections suivantes :
La rplication de donnes utilise le logiciel pour rpliquer les volumes de disque en temps
rel entre les clusters loigns gographiquement. La rplication distante permet de
rpliquer les donnes partir du volume principal du cluster principal sur le volume
principal du cluster secondaire loign gographiquement. Un bitmap miroir distant
rpertorie les diffrences entre les volumes principaux du disque principal et du disque
secondaire. Sun StorageTek Availability Suite 4 fait partie des logiciels utiliss pour la
rplication entre les clusters (et entre les clusters et un hte ne se trouvant pas dans un
cluster).
La rplication de donnes base sur les htes est une solution moins onreuse, car elle utilise
les ressources des htes, plutt que des baies de stockage spcifiques. Les bases de donnes,
les applications ou les systmes de fichiers qui sont configurs pour permettre plusieurs
htes excutant le SE Oracle Solaris d'crire des donnes sur un volume partag ne sont pas
pris en charge (Oracle 9iRAC et Oracle Parallel Server, par exemple). Pour plus
d'informations sur l'utilisation de la rplication de donnes base sur les htes entre deux
clusters, consultez le Oracle Solaris Cluster Geographic Edition Data Replication Guide for
Sun StorageTek Availability Suite. Pour un exemple de rplication base sur les htes
n'utilisant pas Oracle Solaris Cluster Geographic Edition, reportez-vous l'annexe A,
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun
StorageTek Availability Suite la page 371.
La rplication de donnes base sur le stockage utilise le logiciel prsent sur le contrleur de
stockage pour dplacer le processus de rplication de donnes des nuds de cluster vers le
priphrique de stockage. Ce logiciel libre de la puissance de traitement de nud pour les
requtes du cluster. Hitachi TrueCopy, Hitachi Universal Replicator et EMC SRDF font
partie des logiciels bass sur le stockage qui peuvent rpliquer les donnes dans un cluster ou
entre clusters. La rplication de donnes base sur le stockage est particulirement utile dans
les configurations de cluster de campus et peut simplifier l'infrastructure requise. Pour de
plus amples informations sur l'utilisation de la rplication de donnes dans un
environnement de cluster de campus, reportez-vous la section Utilisation de la
rplication de donnes base sur le stockage dans un cluster la page 88.
Pour de plus amples informations sur l'utilisation de la rplication base sur le stockage
entre deux clusters au minimum, et sur le produit Oracle Solaris Cluster Geographic Edition
qui automatise le processus, consultez les documents Oracle Solaris Cluster Geographic
Edition Data Replication Guide for Hitachi TrueCopy and Universal Replicator et Oracle
Solaris Cluster Geographic Edition Data Replication Guide for EMC Symmetrix Remote Data
Facility. Voir aussi l'annexe A, Configuration de la rplication de donnes base sur les
htes l'aide du logiciel Sun StorageTek Availability Suite la page 371 qui contient un
exemple complet de ce type de configuration de cluster.
86
Si vous souhaitez utiliser la rplication base sur les htes sans le logiciel Oracle Solaris
Cluster Geographic Edition, consultez les instructions de l'Annexe A, exemple,
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun
StorageTek Availability Suite la page 371.
EMC Symmetrix Remote Data Facility (SRDF), par le biais dOracle Solaris Cluster
Geographic Edition
Si vous souhaitez utiliser la rplication base sur le stockage sans le logiciel Oracle Solaris
Cluster Geographic Edition, consultez la documentation de votre logiciel de rplication.
2. Rplication dans un cluster - Cette mthode constitue une alternative la mise en miroir
base sur les htes.
3. Rplication base sur une application - Oracle Data Guard est un exemple de logiciel de
rplication base sur une application. Ce type de logiciel est utilis uniquement pour la
reprise sur sinistre. Pour plus d'informations, reportez-vous au Oracle Solaris Cluster
Geographic Edition Data Replication Guide for Oracle Data Guard.
87
88
FIGURE 41
Configuration rcupre
Salle 2
Room 1
Room 2
Serveur
Serveur
Serveur
Commutateur
FC
Commutateur
FC
..
..
.
Commutateur
FC
..
..
.
Commutateur
FC
Priphrique
de stockage
principal
Priphrique
de stockage
secondaire
Priphrique
de stockage
secondaire
Priphrique
de stockage
principal
..
..
.
..
..
.
Commutateur
FC
Commutateur
FC
Priphrique
de quorum
Commutateur
FC
Serveur
Priphrique
de quorum
Commutateur
FC
Fibre monomodale
Fibre multimodale
.
..
..
..
Un lien physique est prsent, mais utilis uniquement lors d'une commutation manuelle
En fonction du type d'application utilis, la rplication de donnes base sur le stockage avec
Hitachi TrueCopy ou Hitachi Universal Replicator peut tre effectue de manire synchrone ou
asynchrone dans l'environnement Oracle Solaris Cluster. Si vous souhaitez effectuer un
basculement automatique dans un cluster de campus, utilisez TrueCopy de manire synchrone.
La rplication synchrone base sur le stockage avec EMC SRDF est prise en charge avec Oracle
Solaris Cluster ; la rplication asynchrone n'est pas prise en charge pour EMC SRDF.
N'utilisez pas les modes Domino ou Adaptive Copy d'EMC SRDF. Le mode Domino rend les
volumes SRDF local et cible indisponibles pour l'hte lorsque la cible est indisponible. Le mode
Adaptive Copy est gnralement utilis pour les migrations de donnes et les dplacements du
centre de donnes et n'est pas recommand pour la reprise sur sinistre.
N'utilisez pas les modes Data ou Status dans Hitachi TrueCopy ou Hitachi Universal Replicator.
En cas de dfaillance du priphrique de stockage secondaire, des problmes d'criture sont
susceptibles de se produire sur le priphrique de stockage principal.
Chapitre 4 Mthodes de rplication de donnes
89
La distance de nud nud est limite par la structure Fibre Channel et d'interconnexion
de Oracle Solaris Cluster. Pour de plus amples informations sur les limitations actuelles et
les technologies prises en charge, contactez votre fournisseur de services Oracle.
Ne configurez pas un volume rpliqu en tant que priphrique de quorum. Identifiez tous
les priphriques de quorum sur un volume partag non rpliqu ou utilisez le serveur de
quorum.
Assurez-vous que seule la copie principale des donnes est visible pour les nuds de cluster.
Dans le cas contraire, le gestionnaire de volumes peut essayer d'accder simultanment aux
copies principale et secondaire des donnes. Reportez-vous la documentation fournie avec
votre baie de stockage pour obtenir des informations sur le contrle de la visibilit de vos
copies de donnes.
Certaines donnes spcifiques une application peuvent ne pas tre adaptes la rplication
asynchrone. En fonction du comportement de votre application, dterminez la meilleure
mthode de rplication de ce type de donnes sur les priphriques de stockage.
90
Lors de la rplication dans un cluster, Oracle Real Application Clusters (RAC) n'est pas prise
en charge avec SRDF, Hitachi TrueCopy et Hitachi Universal Replicator. Les nuds
connects aux rpliques qui ne sont pas actuellement les rpliques principales ne
disposeront pas d'un accs en criture. Les applications volutives qui requirent un accs
en criture direct partir de tous les nuds du cluster ne peuvent tre prises en charge avec
les priphriques rpliqus.
N'utilisez pas le mode Domino ou Adaptive Copy dans EMC SRDF. Pour de plus amples
informations, reportez-vous la section Utilisation de la rplication de donnes base sur
le stockage dans un cluster la page 88.
N'utilisez pas le mode Data ou Status dans Hitachi TrueCopy ou Hitachi Universal
Replicator. Pour de plus amples informations, reportez-vous la section Utilisation de la
rplication de donnes base sur le stockage dans un cluster la page 88.
91
Une relation de type un un doit exister entre le groupe de priphriques global Oracle
Solaris Cluster et le groupe de rplication TrueCopy dfinis dans le fichier de configuration
horcm. Cela permet aux deux groupes de passer d'un nud un autre en tant qu'unit
unique.
Toutes les instances de gestionnaire RAID doivent tre en cours d'excution tout moment.
Lors de l'utilisation du logiciel EMC SRDF pour la rplication de donnes base sur le stockage,
utilisez des priphriques dynamiques plutt que statiques. Les priphriques statiques peuvent
ncessiter plusieurs minutes pour changer le nud principal de rplication et affecter ainsi la
dure de basculement.
92
C H A P I T R E
Remarque Les priphriques globaux ne sont pas directement accessibles depuis des nuds
non votants de cluster global.
Oracle Solaris Cluster rejette les oprations de suppression de carte DR sur les priphriques
actifs rsidant sur le nud principal. Vous pouvez excuter les oprations DR sur les
priphriques inactifs au niveau du nud principal et sur tous les priphriques au niveau
des nuds secondaires.
L'accs aux donnes du cluster continue alors comme avant l'opration DR.
Oracle Solaris Cluster rejette les oprations DR ayant une incidence sur la disponibilit des
priphriques de quorum. Pour plus d'informations, reportez-vous la section
Reconfiguration dynamique avec les priphriques de quorum la page 191.
influence la disponibilit du cluster. Le nud principal n'a nulle part o basculer tant que vous
ne fournissez pas un nouveau nud secondaire.
Pour excuter des oprations DR sur les priphriques globaux, suivez les tapes ci-dessous
dans l'ordre indiqu.
Liste des tches : reconfiguration dynamique avec les priphriques de disque et les
priphriques bande
TABLEAU 51
Tche
Instructions
1. Si vous devez excuter une opration DR Changement du nud principal d'un groupe de priphriques
au niveau du nud principal, qui aura une la page 165
incidence sur un groupe de priphriques
actifs, changez les nuds principal et
secondaire avant d'excuter l'opration de
suppression DR sur le priphrique.
2. Excutez l'opration de suppression DR
sur le priphrique en cours de
suppression.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
95
Pour que le logiciel Oracle Solaris Cluster conserve l'espace de noms VxVM, vous devez
enregistrer les modifications de volume ou de groupe de disques VxVM en tant que
modifications de configuration de groupe de priphriques Oracle Solaris Cluster.
L'enregistrement de ces modifications garantit la mise jour de l'espace de noms sur
l'ensemble des nuds du cluster. L'ajout, la suppression ou le renommage d'un volume
constituent des modifications de configuration ayant une incidence sur l'espace de noms.
Modifier l'ID de groupe, le propritaire ou les permissions du volume influe galement sur
l'espace de noms.
Remarque N'importez ni ne retirez jamais des groupes de disques VxVM l'aide des
commandes VxVM aprs l'enregistrement du groupe de disques avec le cluster en tant que
groupe de priphriques Oracle Solaris Cluster. Le logiciel Oracle Solaris Cluster gre tous
les cas d'importation ou de retrait des groupes de disques.
96
Chaque groupe de disques VxVM doit possder un code mineur unique l'chelle du
cluster. Par dfaut, lors de la cration d'un groupe de disques, VxVM lui attribue un nombre
multiple de 1000 alatoire comme code mineur de base. Dans la plupart des configurations
dotes d'un nombre de groupes de disques rduit, le code mineur suffit garantir l'unicit.
En revanche, un conflit peut se prsenter entre le code mineur d'un nouveau groupe de
disques et celui d'un groupe de disques existant, import sur un autre nud. Dans ce cas, la
tentative d'enregistrement du groupe de priphriques Oracle Solaris Cluster choue. La
solution consiste attribuer au nouveau groupe de disques un nouveau code mineur
unique, puis l'enregistrer en tant que groupe de priphriques Oracle Solaris Cluster.
Dans le cadre de la configuration d'un volume mis en miroir, vous pouvez rduire la dure
de reprise du volume aprs la dfaillance d'un nud l'aide du journal des zones modifies
(DRL, Dirty Region Logging). Il est vivement conseill d'utiliser le DRL malgr le risque de
rduction de la capacit de traitement d'E/S.
VxVM ne prend pas en charge la commande chmod. Pour modifier les permissions du
priphrique global dans VxVM, consultez le guide de l'administrateur correspondant.
Le logiciel Oracle Solaris Cluster 3.3 ne prend pas en charge la gestion DMP (Dynamic
Multipathing, multiacheminement dynamique) VxVM de plusieurs chemins partir du
mme nud.
Si vous configurez des groupes de disques partags pour Oracle RAC l'aide de VxVM,
utilisez la fonction de cluster de VxVM comme dcrit dans le Veritas Volume Manager
Administrator's Reference Guide. La cration des groupes de disques pour Oracle RAC est
diffrente. Vous devez importer les groupes de disques partags Oracle RAC l'aide de la
commande vxdg -s. Vous n'enregistrez pas les groupes de disques partags Oracle RAC
avec la structure du cluster. Pour crer des groupes de disques VxVM, reportez-vous la
section Cration d'un groupe de disques lors de l'initialisation des disques (Veritas Volume
Manager) la page 136.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
97
Liste des tches : administration d'un priphrique de rplique base sur le stockage Hitachi
TrueCopy
Tche
Instructions
Vrifiez la configuration.
En premier lieu, configurez les groupes de priphriques Hitachi TrueCopy sur des disques
partags du cluster principal. Ces informations de configuration sont indiques dans le fichier
/etc/horcm.conf sur chaque nud du cluster ayant accs la baie Hitachi. Pour plus
d'informations sur la configuration du fichier /etc/horcm.conf, consultez le Sun StorEdge SE
9900 V Series Command and Control Interface User and Reference Guide.
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris
Volume Manager, Veritas Volume Manager, ZFS ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.
98
Dmarrez le dmon CCI TrueCopy en excutant la commande horcmstart.sh sur tous les
nuds.
# /usr/bin/horcmstart.sh
Sur chacun des nuds configurs avec des priphriques rpliqus, vrifiez que la
configuration de la rplication des donnes est correcte l'aide de la commande pairdisplay.
Un groupe de priphriques Hitachi TrueCopy ou Hitachi Universal Replicator d'un niveau de
clture ASYNC ne peut partager son ctgid avec aucun autre groupe de priphriques du
systme.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Vrifiez que tous les nuds peuvent administrer les groupes de rplication.
a. l'aide de la commande pairdisplay, choisissez les deux nuds devant hberger la
rplique principale et la rplique secondaire respectivement.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Le nud dot du priphrique local (L) dans l'tat P-VOL contient la rplique principale,
tandis que le nud dot du priphrique local (L) dans l'tat S-VOL contient la rplique
secondaire.
b. Excutez la commande horctakeover sur le nud contenant la rplique secondaire pour
faire du nud secondaire le matre.
# horctakeover -g group-name
Attendez la fin de la copie des donnes d'origine avant de passer l'tape suivante.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
99
c. Vrifiez que le priphrique local (L) sur le nud ayant excut la commande horctakeover
est prsent dans l'tat P-VOL.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
Poursuivez la configuration de votre priphrique rpliqu d'aprs les instructions dcrites dans
la section Configuration de la rplication de priphriques DID l'aide de Hitachi TrueCopy
la page 100.
TrueCopy
Avant de
commencer
Aprs avoir configur un groupe de priphriques pour votre priphrique rpliqu, vous devez
configurer le pilote DID (device identifier, identificateur de priphrique) que ce dernier utilise.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Vrifiez que le dmon horcmd est excut sur tous les nuds.
La commande suivante lance le dmon s'il n'est pas en cours d'excution. En cas contraire, un
message s'affiche.
# /usr/bin/horcmstart.sh
100
Le nud dot du priphrique local (L) dans l'tat S-VOL contient la rplique secondaire.
4
primary-replica-nodename
Spcifie le nom du nud distant qui contient la rplique principale.
-S
Spcifie un nud source, autre que le nud actuel.
secondary replica-nodename
Spcifie le nom du nud distant qui contient la rplique secondaire.
Remarque Par dfaut, le nud actuel est le nud source. Pour en spcifier un autre, utilisez
l'option -S.
5
Si la reconfiguration DID n'a pas russi combiner tous les priphriques rpliqus, combinez
manuellement ceux qui ne l'ont pas t.
Attention Procdez la combinaison manuelle des instances DID avec grande prcaution. Une
101
-d
Instance DID distante qui correspond la rplique principale.
destination-instance
source-instance
Sur tous les nuds, vrifiez que les priphriques DID pour toutes les instances DID combines
sont accessibles.
# cldevice list -v
tapes suivantes
Vous devez crer le groupe de priphriques global avant de pouvoir le vrifier. Vous pouvez
utiliser des groupes de priphriques du type Solaris Volume Manager, Veritas Volume
Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous avez cr (Solaris
Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.
102
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Vrifiez que le groupe de priphriques principal correspond au nud qui contient la rplique
principale.
# pairdisplay -g group-name
# cldevicegroup status -n nodename group-name
Ralisez un essai de commutation afin de garantir que les groupes de priphriques sont
configurs correctement et que les rpliques peuvent passer d'un nud l'autre.
Si le groupe de priphriques est dconnect, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name
-n nodename
Pour vrifier que la commutation a russi, comparez la sortie des commandes suivantes.
# pairdisplay -g group-name
# cldevicegroup status -n nodename group-name
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
103
Le cluster trois nuds de cet exemple utilise TrueCopy. Il s'tend sur deux sites distants,
comportant un nud et deux nuds respectivement. Chaque site possde son propre
priphrique de stockage Hitachi.
Le fichier de configuration TrueCopy /etc/horcm.conf sur chaque nud est illustr dans les
exemples suivants.
EXEMPLE 51
HORCM_DEV
#dev_group
VG01
VG01
VG01
HORCM_INST
#dev_group
VG01
EXEMPLE 52
HORCM_DEV
#dev_group
VG01
VG01
VG01
HORCM_INST
#dev_group
VG01
EXEMPLE 53
HORCM_DEV
#dev_group
VG01
VG01
VG01
HORCM_INST
#dev_group
VG01
VG01
port#
CL1-A
CL1-A
CL1-A
TargetID
0
0
0
LU#
29
30
31
MU#
service
horcm
port#
CL1-A
CL1-A
CL1-A
TargetID
0
0
0
LU#
29
30
31
MU#
LU#
09
10
11
MU#
service
horcm
port#
CL1-C
CL1-C
CL1-C
TargetID
0
0
0
service
horcm
horcm
Dans les exemples prcdents, trois LUN sont rpliqus entre les deux sites. Ils se trouvent tous
dans le groupe de rplication nomm VG01. La commande pairdisplay vrifie ces
informations et indique que le nud 3 contient la rplique principale.
EXEMPLE 54
# pairdisplay -g VG01
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence,
VG01
pair1(L)
(CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER
VG01
pair1(R)
(CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER
VG01
pair2(L)
(CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER
VG01
pair2(R)
(CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER
104
Seq#,P-LDEV#
,----58
,61114
29
,----59
,61114
30
M
-
EXEMPLE 54
VG01
VG01
pair3(L)
pair3(R)
EXEMPLE 55
(CL1-A , 0, 31)61114
(CL1-C , 0, 11)20064
(Suite)
# pairdisplay -g VG01
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence,
VG01
pair1(L)
(CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER
VG01
pair1(R)
(CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER
VG01
pair2(L)
(CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER
VG01
pair2(R)
(CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER
VG01
pair3(L)
(CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER
VG01
pair3(R)
(CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER
EXEMPLE 56
60 31 -
Seq#,P-LDEV#
,----58
,61114
29
,----59
,61114
30
,----60
,61114
31
M
-
Seq#,P-LDEV#
,61114
29
,----58
,61114
30
,----59
,61114
31
,----60
M
-
# pairdisplay -g VG01
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence,
VG01
pair1(L)
(CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER
VG01
pair1(R)
(CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER
VG01
pair2(L)
(CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER
VG01
pair2(R)
(CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER
VG01
pair3(L)
(CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER
VG01
pair3(R)
(CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER
L'option -fd de la commande pairdisplay affiche les disques utiliss, comme illustr dans les
exemples suivants.
EXEMPLE 57
M
-
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
M
-
105
EXEMPLE 59
,Seq#,P-LDEV#
,61114
29
,----58
,61114
30
,----59
,61114
31
,----60
Sur le nud 1 :
Sur le nud 2 :
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
Sur le nud 3 :
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
Pour afficher les priphriques DID correspondant ces disques, utilisez la commande
cldevice list, comme dcrit dans les exemples suivants.
EXEMPLE 510
# cldevice list -v
DID Device
---------1
2
11
11
12
12
13
13
14
14
18
19
20
21
22
106
EXEMPLE 510
23
24
(Suite)
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
Lors de la combinaison des instances DID pour chaque paire de priphriques rpliqus, la
commande cldevice list doit combiner les instances 12 et 22, 13 et 23, et 14 et 24. Le nud 3
contenant la rplique principale, excutez la commande cldevice-T partir du nud 1 ou 2.
Vous devez toujours combiner les instances partir d'un nud contenant la rplique
secondaire. Excutez cette commande partir d'un seul et unique nud.
L'exemple suivant illustre la sortie lorsque les instances DID sont combines en excutant la
commande sur le nud 1.
EXEMPLE 511
La sortie de la commande cldevice list indique que les LUN des deux sites possdent
prsent la mme instance DID. Ainsi, chaque paire de rpliques ressemble un priphrique
unique, comme illustr dans l'exemple suivant.
EXEMPLE 512
# cldevice
DID Device
---------1
2
11
11
18
19
20
21
22
22
22
23
23
23
list -v
Full Device Path
---------------node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2
node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0
node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0
node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18
node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19
node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
/dev/did/rdsk/d11
/dev/did/rdsk/d11
/dev/did/rdsk/d20
/dev/did/rdsk/d21
/dev/did/rdsk/d1222
/dev/did/rdsk/d12
/dev/did/rdsk/d22
/dev/did/rdsk/d13
/dev/did/rdsk/d13
/dev/did/rdsk/d23
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
107
EXEMPLE 512
24
24
24
(Suite)
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
Owner
Yes
Dbase
Yes
Yes
Yes
VG01
SVM
no
phys-deneb-3, phys-deneb-1, phys-deneb-2
yes
1
VG01
truecopy
Cette tape met fin la configuration du groupe de rplication. Pour vrifier la russite de la
configuration, suivez la procdure dcrite la section Vrification de la configuration d'un
groupe de priphriques global rpliqu Hitachi TrueCopy la page 102.
Liste des tches : administration d'un priphrique rpliqu bas sur le stockage SRDF d'EMC
Tche
Instructions
Vrifiez la configuration.
Le logiciel EMC Solutions Enabler doit tre install sur tous les nuds du cluster pralablement
la configuration d'un groupe de rplication EMC Symmetrix Remote Data Facility (SRDF). En
premier lieu, configurez les groupes de priphriques EMC SRDF sur des disques partags du
cluster. Pour plus d'informations sur la configuration des groupes de priphriques EMC SRFD,
consultez la documentation du produit SRFD d'EMC.
Lors de l'utilisation du logiciel EMC SRDF, utilisez des priphriques dynamiques plutt que
statiques. Les priphriques statiques peuvent ncessiter plusieurs minutes pour changer le
nud principal de rplication et affecter ainsi la dure de basculement.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
109
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris
Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.
1
Sur chaque nud configur avec les donnes rpliques, dtectez la configuration de
priphrique Symmetrix.
Cette opration peut prendre quelques minutes.
# /usr/symcli/bin/symcfg discover
Sur chacun des nuds configurs avec des priphriques rpliqus, vrifiez que la
configuration de la rplication des donnes est correcte.
# /usr/symcli/bin/symdg show group-name
b. l'aide de la commande symdg show, choisissez les deux nuds devant hberger la rplique
principale et la rplique secondaire respectivement.
# /usr/symcli/bin/symdg show group-name
Le nud dot du priphrique RDF1 contient la rplique principale, tandis que le nud
dot de l'tat du priphrique RDF2 contient la rplique secondaire.
c. Activez la rplique secondaire.
# /usr/symcli/bin/symrdf -g group-name failover
110
tapes suivantes
Renouvelez toutes les oprations de l'tape 5 sur le nud qui hbergeait la rplique principale
l'origine.
Aprs avoir configur un groupe de priphriques pour votre priphrique rpliqu EMC
SRDF, vous devez configurer le pilote DID (device identifier, identificateur de priphrique)
que ce dernier utilise.
EMC SRDF
Pour configurer le pilote DID (device identifier, identificateur de priphrique) du priphrique
rpliqu, procdez comme suit.
Avant de
commencer
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Identifiez les priphriques DID qui correspondent aux priphriques configurs RDF1 et RDF2.
# /usr/symcli/bin/symdg show group-name
Remarque Si le systme n'affiche pas l'intgralit du patch de priphrique Oracle Solaris,
dfinissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez nouveau la
commande symdg -show.
Identifiez les priphriques DID qui correspondent aux priphriques Oracle Solaris.
# cldevice list -v
Pour chaque paire de priphriques DID associs, combinez les instances en un priphrique
DID rpliqu unique. Excutez la commande suivante du ct RDF2/secondaire.
# cldevice combine -t srdf -g replication-device-group \
-d destination-instance source-instance
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
111
Remarque L'option -T n'est pas prise en charge pour les priphriques de rplication de
donnes SRDF.
-t replication-type
-g replication-device-group
-d destination-instance
source-instance
Remarque Si vous combinez le priphrique DID incorrect, annulez la combinaison des deux
priphriques DID l'aide de l'option -b de la commande scdidadm.
# scdidadm -b device
-b device
Description
TrueCopy
SRDF
Sur tous les nuds, vrifiez que les priphriques DID pour toutes les instances DID combines
sont accessibles.
# cldevice list -v
112
tapes suivantes
Aprs avoir configur le pilote DID utilis par le priphrique rpliqu, vous devez vrifier la
configuration du groupe de priphriques global rpliqu EMC SRDF.
Vous devez crer le groupe de priphriques global avant de pouvoir le vrifier. Vous pouvez
utiliser des groupes de priphriques du type Solaris Volume Manager, Veritas Volume
Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous avez cr (Solaris
Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Vrifiez que le groupe de priphriques principal correspond au nud qui contient la rplique
principale.
# symdg -show group-name
# cldevicegroup status -n nodename group-name
Ralisez un essai de commutation afin de garantir que les groupes de priphriques sont
configurs correctement et que les rpliques peuvent passer d'un nud l'autre.
Si le groupe de priphriques est dconnect, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name
-n nodename
Pour vrifier que la commutation a russi, comparez la sortie des commandes suivantes.
# symdg -show group-name
# cldevicegroup status -n nodename group-name
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
113
Installation du logiciel SRDF sur vos nuds de cluster et votre priphrique de stockage.
Cet exemple prsente un cluster quatre nuds dont deux sont connects un priphrique
Symmetrix et les deux autres au second priphrique Symmetrix. Le nom du groupe de
priphriques SRDF est dg1.
EXEMPLE 515
N/Grpd
N/Grpd
N/Grpd
114
RW
RW
RW
4315
4315
4315
EXEMPLE 516
(Suite)
of
of
of
of
of
of
of
:
:
:
:
:
:
:
RDF1
(RDFA)
No
Yes
000187900023
Thu Sep 13 13:21:15 2007
EMC Corp
SYMCLI
1
0
0
0
0
0
0
RW
4315
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
115
EXEMPLE 516
: dg1
: RDF2
: 000187990182
(Suite)
LI
N
K
S
--
0 RW 0067 RW
-------- -------0.0
0.0
MODES
----- -----------RDF Pair
MDA STATE
----- ------------
0 S..
Synchronized
-------- -------0.0
0.0
: RDF1
(RDFA)
...
Standard (STD) Devices (1):
{
-------------------------------------------------------------------Sym
Cap
LdevName
PdevName
Dev Att. Sts
(MB)
-------------------------------------------------------------------DEV001
/dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067
}
Device Group RDF Information
...
116
RW
4315
EXEMPLE 517
(Suite)
/dev/did/rdsk/d217
pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
none
global
: RDF2
(RDFA)
...
Standard (STD) Devices (1):
{
-------------------------------------------------------------------Sym
Cap
LdevName
PdevName
Dev Att. Sts
(MB)
-------------------------------------------------------------------DEV001
/dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067
}
WD
4315
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
117
EXEMPLE 517
(Suite)
/dev/did/rdsk/d108
pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
none
global
#
EXEMPLE 518
/dev/did/rdsk/d217
pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
srdf
global
salle principale
Cette procdure permet de rcuprer les donnes perdues suite la dfaillance totale de la salle
principale du cluster campus, suivi du basculement de la salle principale sur la salle secondaire
et du retour en ligne de la salle principale. La salle principale du cluster campus correspond au
nud principal et au site de stockage. La dfaillance totale d'une salle entrane celle de son hte
et de son stockage. En cas de dfaillance du cluster principal, Oracle Solaris Cluster bascule
automatiquement sur le cluster secondaire, et active l'accs en lecture et en criture du
priphrique de stockage ainsi que le basculement des groupes de priphriques et de
ressources correspondants.
118
Au retour en ligne de la salle principale, il est possible de rcuprer manuellement les donnes
du groupe de priphriques SRDF enregistres dans la salle secondaire et de les resynchroniser.
Cette procdure permet de rcuprer le groupe de priphriques SRDF par synchronisation des
donnes de la salle secondaire initiale (phys-campus-2 ) vers la salle principale initiale
(phys-campus-1). Au cours de la procdure, le type du groupe de priphriques SRDF est
remplac par RDF1 sur phys-campus-2 et par RDF2 sur phys-campus-1.
Avant de
commencer
Dans la salle principale, utilisez la commande symrdf pour interroger l'tat de rplication des
priphriques RDF et afficher les informations les concernant.
phys-campus-1# symrdf -g dg1 query
Astuce Un groupe de priphriques dont l'tat est split (spar) n'est pas synchronis.
Lorsque l'tat de la paire RDF est spar et le type du groupe de priphriques RDF1, faites
basculer le groupe de priphriques SRDF.
phys-campus-1# symrdf -g dg1 -force failover
Aprs le basculement des priphriques RDF, vous pouvez changer leurs donnes.
phys-campus-1# symrdf -g dg1 swap
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
119
Confirmez que l'tat du groupe de priphriques est synchronis et que son type est RDF2.
phys-campus-1# symrdf -g dg1 query
Exemple 520
Rcupration manuelle des donnes EMC SRDF aprs le basculement d'un site
principal
Cet exemple dcrit la procdure spcifique Oracle Solaris Cluster permettant de rcuprer
manuellement des donnes EMC SRDF aprs le basculement du cluster principal du cluster
campus, la reprise et l'enregistrement des donnes par le cluster secondaire et le retour en ligne
du cluster principal. Dans cet exemple, dg1 est le nom du groupe de priphriques SRDF et
DEV001 est le priphrique logique standard. Au moment de la dfaillance, phys-campus-1 est
la salle principale et phys-campus-2 la salle secondaire. Effectuez la procdure partir de la salle
principale du cluster campus, phys-campus-1.
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split
phys-campus-1# symdg list | grep RDF
dg1 RDF1 Yes 00187990182 1 0 0 0 0
phys-campus-1# symrdf -g dg1 -force failover
...
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over
phys-campus-1# symdg list | grep RDF
dg1 RDF1 Yes 00187990182 1 0 0 0 0
phys-campus-1# symrdf -g dg1 swap
...
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended
phys-campus-1# symdg list | grep RDF
dg1 RDF2 Yes 000187990182 1 0 0 0 0
phys-campus-1# symrdf -g dg1 establish
...
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized
120
La commande unlink(1M) n'est pas prise en charge dans les rpertoires qui ne sont pas
vides.
La commande lockfs -d n'est pas prise en charge. Utilisez la place la commande lockfs
-n.
Le systme ZFS pour les systmes de fichiers racines est pris en charge, une exception
significative prs. Si vous utilisez une partition ddie du disque d'initialisation d'un systme
de fichiers de priphriques globaux, son systme de fichiers ne peut tre qu'un systme
UFS. L'espace de noms des priphriques globaux requiert l'excution du systme de fichiers
proxy (PxFS) sur le systme de fichiers UFS. Toutefois, un systme de fichiers UFS pour
l'espace de noms des priphriques globaux peut coexister avec un systme de fichiers ZFS
pour le systme de fichiers racine (/) et d'autres systmes de fichiers racines tels que /var ou
/home. Sinon, si vous utilisez plutt un priphrique lofi pour hberger l'espace de noms des
priphriques globaux, vous pouvez utiliser le systme ZFS pour les systmes de fichiers
racines, sans aucune restriction.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
121
E/S rapide
Instantans
Des donnes en cache peuvent tre utilises, mais l'effet est uniquement observ sur le nud
donn.
Toutes les fonctions et options VxFS prises en charge dans un systme de fichiers du cluster
sont prises en charge par le logiciel Oracle Solaris Cluster Reportez-vous la documentation
VxFS pour plus d'informations sur les options VxFS prises en charge dans une configuration en
cluster.
Les directives ci-dessous relatives l'utilisation de VxFS dans le cadre de la cration de systmes
de fichiers de cluster haut niveau de disponibilit s'appliquent une configuration Oracle
Solaris 3.3;
Suivez les procdures dcrites dans la documentation VxFS pour crer un systme de
fichiers VxFS.
122
L'administration des fichiers sur un systme de fichiers de cluster VxFS s'effectue depuis
n'importe quel nud du cluster. Toutefois, la commande ioctls, qui fait figure d'exception,
doit tre excute partir du nud principal. Si vous ignorez si une commande
d'administration implique ioctls, excutez-la partir du nud principal.
Lorsqu'un systme de fichiers du cluster VxFS bascule sur un nud secondaire, toutes les
oprations standard d'appel du systme en cours d'excution sont rexcutes en
transparence sur le nouveau nud principal. Cependant, les oprations associes ioctl en
cours d'excution lors du basculement chouent. Aprs le basculement d'un systme de
fichiers du cluster VxFS, vrifiez son tat. Vous devrez ventuellement prendre des mesures
de rectification quant aux commandes d'administration qui taient excutes sur l'ancien
nud principal avant le basculement. Pour plus d'informations, consultez la documentation
VxFS.
Tche
Instructions
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
123
TABLEAU 54
(Suite)
Tche
Instructions
124
TABLEAU 54
(Suite)
Tche
Instructions
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
125
TABLEAU 54
(Suite)
Tche
Instructions
n'appartient pas au cluster. Elle n'a pas non plus d'effet si le systme de fichiers
/global/.devices/node@ nodeID n'est pas mont.
1
126
Vrifiez que la commande cldevice populate est termine sur chaque nud avant d'essayer
de crer un ensemble de disques.
La commande cldevice s'auto-appelle distance sur tous les nuds, y compris lorsqu'elle est
excute partir d'un seul nud. Pour savoir si la commande cldevice populate a termin le
traitement, excutez la commande suivante sur chaque nud du cluster.
# ps -ef | grep cldevice populate
Exemple 521
127
Remarque Si le systme de fichiers est mont l'aide de l'option -m, aucune entre n'est ajoute
au fichier mnttab. La commande umount peut signaler un avertissement similaire ce qui suit :
umount: warning: /global/.devices/node@2 not in mnttab
not mounted
====>>>>
128
Remarque Le systme ZFS pour les systmes de fichiers racines est pris en charge, une
exception significative prs. Si vous utilisez une partition ddie du disque d'initialisation d'un
systme de fichiers de priphriques globaux, son systme de fichiers ne peut tre qu'un systme
UFS. L'espace de noms des priphriques globaux requiert l'excution du systme de fichiers
proxy (PxFS) sur le systme de fichiers UFS. Toutefois, un systme de fichiers UFS pour l'espace
de noms des priphriques globaux peut coexister avec un systme de fichiers ZFS pour le
systme de fichiers racine (/) et d'autres systmes de fichiers racines tels que /var ou /home.
Sinon, si vous utilisez plutt un priphrique lofi pour hberger l'espace de noms des
priphriques globaux, vous pouvez utiliser le systme ZFS pour les systmes de fichiers racines,
sans aucune restriction.
Les procdures suivantes expliquent comment dplacer un espace de noms des priphriques
globaux, d'une partition ddie vers un priphrique lofi ou inversement :
Migration de l'espace de noms des priphriques globaux d'une partition ddie vers un
priphrique lofi la page 129
Migration de l'espace de noms des priphriques globaux d'un priphrique lofi vers une
partition ddie la page 130
Connectez-vous en tant que superutilisateur au nud votant du cluster global dont vous
souhaitez changer l'emplacement de l'espace de noms.
Vrifiez qu'aucun fichier nomm /.globaldevices n'existe sur le nud. Si c'est le cas,
supprimez-le.
129
Un priphrique lofi est prsent cr sur /.globaldevices et mont en tant que systme de
fichiers des priphriques globaux.
8
Procdez de la mme manire sur les autres nuds dont vous souhaitez migrer l'espace de
noms des priphriques globaux d'une partition vers un priphrique lofi.
partir d'un nud, remplissez les espaces de noms des priphriques globaux.
# /usr/cluster/bin/cldevice populate
Sur chaque nud, vrifiez que la commande a termin le traitement avant d'excuter d'autres
actions sur le cluster.
# ps -ef \ grep cldevice populate
L'espace de noms des priphriques globaux rside dsormais sur le priphrique lofi.
10
Connectez-vous en tant que superutilisateur au nud votant du cluster global dont vous
souhaitez changer l'emplacement de l'espace de noms.
Sur un disque local du nud, crez une partition rpondant la configuration requise suivante :
130
Ajoutez une entre au fichier /etc/vfstab pour monter la nouvelle partition en tant que
systme de fichiers des priphriques globaux.
Par exemple, si vous avez choisi d'utiliser la partition /dev/did/rdsk/d5s3 , la nouvelle entre
ajouter au fichier /etc/vfstab est /dev/did/dsk/d5s3 /dev/did/rdsk/d5s3
/global/.devices/node@3 ufs 2 no global.
5
La partition est prsent monte en tant que systme de fichiers d'espace de noms des
priphriques globaux.
9
10
Procdez de la mme manire sur les autres nuds dont vous souhaitez migrer l'espace de
noms des priphriques globaux d'un priphrique lofi vers une partition.
partir d'un nud du cluster, excutez la commande cldevice populate pour remplir l'espace
de noms des priphriques globaux.
# /usr/cluster/bin/cldevice populate
Veillez ce que ce processus soit termin sur l'ensemble des nuds du cluster avant d'excuter
une nouvelle action sur l'un d'eux.
# ps -ef | grep cldevie populate
L'espace de noms des priphriques globaux rside dsormais sur la partition ddie.
11
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
131
Ajoutez l'ensemble de disques Solaris Volume Manager et enregistrez-le en tant que groupe de
priphriques avec Oracle Solaris Cluster. Pour crer un groupe de priphriques
multipropritaire, utilisez l'option -M.
# metaset -s diskset -a -M -h nodelist
132
-s diskset
-a -h nodelist
-M
Choisissez des units partages par les nuds du cluster qui administreront ou seront
susceptibles d'administrer l'ensemble de disques.
Lors de l'ajout d'une unit l'ensemble de disques, utilisez le nom complet de priphrique
DID dont la forme est /dev/did/rdsk/d N.
Dans l'exemple ci-dessous, les entres du priphrique DID /dev/did/rdsk/d3 indiquent que
l'unit est partage par phys-schost-1 et phys-schost-2.
=== DID Device Instances ===
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
Full Device Path:
...
6
/dev/did/rdsk/d1
phys-schost-1:/dev/rdsk/c0t0d0
/dev/did/rdsk/d2
phys-schost-1:/dev/rdsk/c0t6d0
/dev/did/rdsk/d3
phys-schost-1:/dev/rdsk/c1t1d0
phys-schost-2:/dev/rdsk/c1t1d0
-s setname
-a
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
133
Remarque N'utilisez pas le nom de priphrique de niveau infrieur ( cNtX dY) lorsque vous
ajoutez une unit l'ensemble de disques. tant local et non unique l'chelle du cluster, le nom
de priphrique de niveau infrieur risque d'empcher la commutation de metaset.
7
Exemple 522
Vous souhaitez dresser la liste des groupes de priphriques sans recourir l'option -v de la
commande cldg.
Attention Si vous crez un groupe de priphriques sur des priphriques rpliqus, le nom du
groupe de priphriques que vous crez (Solaris Volume Manager, Veritas Volume Manager ou
disque brut) doit tre identique celui du groupe de priphriques rpliqu.
134
tierces est en suspens. Les notes de version Oracle Solaris Cluster les plus rcentes contiennent
les toutes dernires informations sur la prise en charge de ZFS.
1
Supprimez les groupes de priphriques par dfaut qui correspondent aux priphriques dans
le zpool.
Par exemple, si un zpool appel mypool contient les deux priphriques /dev/did/dsk/d2 et
/dev/did/dsk/d13, vous devez supprimer les deux groupes de priphriques par dfaut d2 et
d3.
# cldevicegroup offline dsk/d2 dsk/d13
# cldevicegroup remove dsk/d2 dsk/d13
Crez un groupe de priphriques nomm avec des DID correspondant ceux du groupe de
priphriques supprim l'tape 1.
# cldevicegroup create -d d2,d13 -t rawdisk mypool
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
135
Un groupe de priphriques appel mypool (nom du zpool) est alors cr pour administrer les
priphriques bruts /dev/did/dsk/d2 et /dev/did/dsk/d13.
3
Crez un groupe de ressources pour grer la migration des priphriques rpliqus (dans le
groupe de priphriques) avec uniquement des zones globales dans sa liste de nuds.
# clrg create -n pnode1,pnode2 migrate_truecopydg-rg
Crez une ressource hasp-rs dans le groupe de ressources que vous avez cr l'tape 4, en
dfinissant la proprit globaldevicepaths sur un groupe de priphriques du type disque
brut. Vous avez cr ce groupe de priphriques l'tape 2.
# clrs create -t HAStoragePlus -x globaldevicepaths=mypool -g \
migrate_truecopydg-rg hasp2migrate_mypool
Si le groupe de ressources de l'application doit s'excuter dans des zones locales, crez un
nouveau groupe de ressources avec la liste de nuds contenant les zones locales appropries.
Les zones globales correspondant aux zones locales doivent figurer dans la liste des nuds du
groupe de ressources cr l'tape 4. Au lieu de ce groupe de ressources, dfinissez la valeur
+++ dans la proprit rg_affinities sur le groupe de ressources cr l'tape 4.
# clrg create -n pnode1:zone-1,pnode2:zone-2 -p \
RG_affinities=+++migrate_truecopydg-rg sybase-rg
Crez une ressource HAStoragePlus (hasp-rs) pour le zpool cr l'tape 3 dans le groupe de
ressources cr l'tape 4 ou 6. Dfinissez la proprit resource_dependencies sur la ressource
hasp-rs cre l'tape 5.
# clrs create -g sybase-rg -t HAStoragePlus -p zpools=mypool \
-p resource_dependencies=hasp2migrate_mypool \
-p ZpoolsSearchDir=/dev/did/dsk hasp2import_mypool
136
Aprs l'ajout du groupe de disques VxVM, vous devez enregistrer le groupe de priphriques.
Si vous configurez des groupes de disques partags pour Oracle RAC l'aide de VxVM, utilisez
la fonction de cluster de VxVM comme dcrit dans le Veritas Volume Manager Administrator's
Reference Guide.
1
Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.
N'enregistrez pas les groupes de disques partags Oracle RAC avec la structure du cluster.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
137
Si des groupes de priphriques identifis l'tape 2 sont du type SVM, suivez la procdure
dcrite la section Suppression d'un nud d'un groupe de priphriques (Solaris Volume
Manager) la page 139 pour chacun d'eux.
Si des groupes de priphriques identifis l'tape 2 sont du type VxVM, suivez la procdure
dcrite la section Suppression d'un nud d'un groupe de priphriques (Veritas Volume
Manager) la page 155 pour chacun d'eux.
138
Si des groupes de priphriques rpertoris l'tape 5 sont de type Disk ou Local_Disk, suivez
la procdure dcrite la section Suppression d'un nud d'un groupe de priphriques de
disque brut la page 157 pour chacun d'eux.
Vrifiez que le nud a t supprim de la liste des nuds principaux potentiels de tous les
groupes de priphriques.
La commande ne renvoie aucun lment si le nud n'est plus rpertori en tant que nud
principal potentiel d'un groupe de priphriques.
# cldevicegroup list -v nodename
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Vrifiez que le nud appartient toujours au groupe de priphriques et que ce dernier est un
groupe de priphriques Solaris Volume Manager.
Le type de groupe de priphriques SDS/SVM indique un groupe de priphriques Solaris
Volume Manager.
phys-schost-1% cldevicegroup show devicegroup
-s setname
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
139
-d
-h nodelist
Renouvelez l'tape 4 pour chaque groupe de priphriques duquel le nud est supprim en
tant que nud principal potentiel.
Exemple 523
140
Primary
------phys-schost-1
Secondary
Status
-------------phys-schost-2 Online
[Become superuser on the node that currently owns the device group.]
[Remove the host name from the device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]]
phys-schost-1% cldevicegroup list -v dg-schost-1
=== Cluster Device Groups ===
--- Device Group Status --Device Group Name
----------------dg-schost-1
Primary
------phys-schost-1
Secondary
---------
Status
-----Online
Vous pouvez convertir des disques non racines en groupes de priphriques Oracle Solaris
Cluster. Pour cela, encapsulez les disques en tant que groupes de disques VxVM que vous
enregistrez ensuite en tant que groupes de priphriques Oracle Solaris Cluster.
L'encapsulation de disque est prise en charge lors de la cration initiale d'un groupe de disques
VxVM et dans ce cas uniquement. Aprs la cration d'un groupe de disques VxVM et son
enregistrement en tant que groupe de priphriques Oracle Solaris Cluster, vous ne devez
ajouter au groupe de disques que les disques initialisables.
Si vous configurez des groupes de disques partags pour Oracle RAC l'aide de VxVM, utilisez
la fonction de cluster de VxVM comme dcrit dans le Veritas Volume Manager Administrator's
Reference Guide.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
141
Si le disque en cours d'encapsulation possde des entres de systme de fichiers dans le fichier
/etc/vfstab, assurez-vous que l'option mount at boot est dfinie sur no.
Restaurez la valeur yes une fois le disque encapsul et enregistr en tant que groupe de
priphriques Oracle Solaris Cluster.
node
Nom du nud.
zone
Nom du nud non votant, node, qui peut administrer le groupe de ressources.
Spcifiez la zone uniquement si vous avez indiqu un nud non votant lors de la
cration du groupe de ressources.
Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.
N'enregistrez pas les groupes de disques partags Oracle RAC avec la structure du cluster.
142
Si vous avez dfini l'option mount at boot sur no l'tape 2, redfinissez-la sur yes.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
nodename
devicegroup
partir du nud principal (celui qui administre le groupe de priphriques), crez le volume
VxVM dans le groupe de disques.
La documentation Veritas Volume Manager contient la procdure de cration du volume
VxVM.
Synchronisez les modifications apportes au groupe de disques VxVM pour mettre jour
l'espace de noms global.
# cldevicegroup sync
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
143
Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.
Choisissez un multiple de 1000 non utilis comme code mineur de base du nouveau groupe de
disques.
144
Exemple 524
Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
145
Avant de
commencer
Avant d'enregistrer un groupe de priphriques VxVM, vrifiez que les prrequis suivants ont
t satisfaits :
Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.
146
Si vous utilisez VxVM pour configurer des groupes de disques partags pour Oracle Parallel
Server/Oracle RAC, vous n'enregistrez pas les groupes de disques partags avec la structure du
cluster. Servez-vous de la fonctionnalit de cluster de VxVM, comme dcrit dans le Veritas
Volume Manager Administrator's Reference Guide.
5
Exemple 525
147
Primary
Secondary
Status
-------------------phys-schost-1 phys-schost-2 Online
148
Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.
Pour enregistrer les modifications que vous apportez la configuration, tapez le numro
correspondant l'option de synchronisation des informations de volume d'un groupe de
priphriques VxVM.
Suivez les instructions et tapez le nom du groupe de disques VxVM dont la configuration a t
modifie.
Exemple 526
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
149
c. Choisissez l'option de menu Enregistrer un groupe de disques VxVM en tant que groupe de
priphriques.
d. Suivez les instructions pour spcifier les nuds qui peuvent administrer le groupe de
disques.
e. Lorsque vous avez termin, quittez l'utilitaire clsetup.
5
Vrifiez que le groupe de disques n'est plus enregistr dans Oracle Solaris Cluster.
phys-schost# cldevicegroup status
150
La sortie de la commande ne doit plus afficher le groupe de priphriques dont vous avez annul
l'enregistrement.
5
Vrifiez que le groupe de disques est configur en tant que groupe de disques local.
phys-schost# vxdg list diskgroup
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
151
-g diskgroup
-rf rm volume
152
Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.
Exemple 527
Pour annuler l'enregistrement d'un groupe de disques VxVM, tapez le numro correspondant
l'option d'annulation de l'enregistrement d'un groupe de priphriques VxVM.
Suivez les instructions et tapez le nom du groupe de disques VxVM dont vous souhaitez
annuler l'enregistrement.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
153
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.
Exemple 528
154
dg1
VxVM
yes
phys-schost-1, phys-schost-3
no
numsecondaries:
diskgroup names:
1
dg1
Vrifiez que le nud appartient toujours au groupe et que ce dernier est un groupe de
priphriques VxVM.
Le type de groupe de priphriques VxVM indique un groupe de priphriques VxVM.
phys-schost-1% cldevicegroup show devicegroup
Pour supprimer un nud d'un groupe de priphriques VxVM, tapez le numro correspondant
l'option de suppression de nud d'un groupe de priphriques VxVM.
Rpondez aux invites pour supprimer le nud du cluster du groupe de priphriques. Vous tes
invit fournir les informations suivantes :
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
155
Exemple 529
156
dg1
VXVM
no
phys-schost-2
no
1
dg1
Vrifiez que vous avez dsactiv la proprit localonly de tous les groupes de priphriques
de disque brut connects au nud en cours de suppression.
Le type de groupe de priphriques Disk indique que la proprit localonly est dsactive
pour ce groupe de priphriques de disque brut.
# cldevicegroup show -n nodename -t rawdisk -v +
Supprimez le nud de tous les groupes de priphriques de disque brut identifis l'tape 2.
Vous devez effectuer cette tape pour chaque groupe de priphriques de disque brut connect
au nud en cours de suppression.
# cldevicegroup remove-node -n nodename devicegroup
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
157
Exemple 530
[Identify the device groups connected to the node being removed, and determine which are raw-disk
device groups:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk -v +
Device Group Name:
dsk/d4
Type:
Disk
failback:
false
Node List:
phys-schost-2
preferenced:
false
localonly:
false
autogen
true
numsecondaries:
1
device names:
phys-schost-2
Device Group Name:
Type:
failback:
Node List:
preferenced:
localonly:
autogen
numsecondaries:
diskgroup name:
dsk/d2
VxVM
true
pbrave2
false
false
true
1
vxdg1
158
Avant de
commencer
Pour effectuer cette procdure, vous avez besoin du nom du groupe de priphriques dont vous
modifiez les valeurs d'attribut.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Pour utiliser des groupes de priphriques, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
159
Exemple 531
dg-schost-1
SVM
yes
phys-schost-1, phys-schost-2
yes
1
dg-schost-1
160
Pour travailler avec des groupes de priphriques, choisissez l'option de menu Volumes et
groupes de priphriques.
Le menu Groupes de priphriques s'affiche.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
161
Pour modifier le nombre souhait de nuds secondaires selon vos besoins, tapez le numro
correspondant l'option de modification de la proprit numsecondaries.
Suivez les instructions et tapez le nombre souhait de nuds secondaires configurer pour le
groupe de priphriques. La commande cldevicegroup est excute, un journal est imprim et
le menu prcdent de l'utilitaire s'affiche nouveau.
dg-schost-1
VxVm
This might also be SDS or Local_Disk.
yes
phys-schost-1, phys-schost-2 phys-schost-3
yes
1
dg-schost-1
Exemple 532
162
dg-schost-1
SVM
yes
Node List:
preferenced:
numsecondaries:
diskset names:
Exemple 533
phys-schost-1, phys-schost-2
yes
1
dg-schost-1
Exemple 534
dg-schost-1
VxVM
yes
phys-schost-1, phys-schost-2
yes
1
dg-schost-1
dg-schost-1
SVM
yes
phys-schost-1, phys-schost-2 phys-schost-3
yes
1
dg-schost-1
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
163
Exemple 535
164
Primary
------phys-schost-2
phys-schost-1
phys-schost-3
Secondary
--------phys-schost-1
-phy-shost-2
Status
-----Online
Offline
Online
Exemple 536
dg-schost-1
SVM
yes
phys-schost-2, phys-schost-3
yes
1
dg-schost-1
-n nodename
devicegroup
165
Exemple 537
Primary
Secondary
Status
-------------------phys-schost-1 phys-schost-2 Online
arrter tout accs ses priphriques et dmonter tous les systmes de fichiers dpendants.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
166
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
167
Exemple 538
Affichage des paramtres du protocole SCSI global par dfaut pour tous les priphriques de
stockage la page 168
Affichage du protocole SCSI d'un seul priphrique de stockage la page 169
Modification des paramtres du protocole de sparation globaux par dfaut pour tous les
priphriques de stockage la page 170
Modification du protocole de sparation d'un seul priphrique de stockage la page 172
168
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
partir d'un nud, affichez les paramtres du protocole SCSI global par dfaut actuel.
# cluster show -t global
Affichage des paramtres du protocole SCSI globaux par dfaut pour tous les
priphriques de stockage
Dans l'exemple suivant, les paramtres du protocole SCSI sont affichs pour tous les
priphriques de stockage rsidant sur le cluster.
# cluster show -t global
=== Cluster ===
Cluster Name:
installmode:
heartbeat_timeout:
heartbeat_quantum:
private_netaddr:
private_netmask:
max_nodes:
max_privatenets:
global_fencing:
Node List:
racerxx
disabled
10000
1000
172.16.0.0
255.255.248.0
64
10
pathcount
phys-racerxx-1, phys-racerxx-2
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
169
partir d'un nud, affichez les paramtres du protocole SCSI du priphrique de stockage.
# cldevice show device
device
/dev/did/rdsk/d3
phappy1:/dev/rdsk/c4t8d0
phappy2:/dev/rdsk/c4t8d0
none
global
170
Pour modifier le paramtre de sparation par dfaut pour un priphrique de quorum, vous
devez annuler la configuration du priphrique, modifier le paramtre de sparation et
reconfigurer le priphrique de quorum. Si vous avez dans l'ide de dsactiver la sparation puis
de la ractiver rgulirement pour des priphriques comprenant des priphriques de quorum,
envisagez de faire appel un service de serveur de quorum pour configurer le quorum. Vous
liminerez ainsi les interruptions de l'opration de quorum.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Dfinissez le protocole de sparation pour tous les priphriques de stockage qui ne sont pas
des priphriques de quorum.
cluster set -p global_fencing={pathcount | prefer3 | nofencing | nofencing-noscrub}
-p global_fencing
prefer3
pathcount
nofencing
nofencing-noscrub
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
171
Exemple 541
Dfinition des paramtres du protocole de sparation globaux par dfaut pour tous
les priphriques de stockage
Dans l'exemple suivant, le protocole de sparation pour tous les priphriques de stockage
rsidant sur le cluster est dfini sur SCSI-3.
# cluster set -p global_fencing=prefer3
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Attention Si vous activez la sparation dans des circonstances inadquates, vos donnes
risquent d'tre corrompues au cours du basculement de l'application. Prenez srieusement en
compte cette ventualit lorsque vous envisagez de dsactiver la sparation. Vous pouvez
dsactiver la sparation si le priphrique de stockage partag ne prend pas en charge le
protocole SCSI ou si vous souhaitez autoriser l'accs au stockage du cluster partir d'htes
extrieurs celui-ci.
1
172
-p default_fencing
pathcount
scsi3
global
nofencing-noscrub
device
Dans l'exemple suivant, la sparation par dfaut est dsactive pour le priphrique d11.
#cldevice set -p default_fencing=nofencing d11
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
173
TABLEAU 55
Tche
Instructions
Affichez des systmes de fichiers du cluster Ajout d'un systme de fichiers du cluster la page 174
aprs l'installation initiale de Oracle Solaris
Cluster.
Supprimez un systme de fichiers du
cluster.
Avant d'ajouter un systme de fichiers de cluster supplmentaire, assurez-vous que les prrequis
suivants ont t satisfaits :
Si vous avez install des services de donnes l'aide de Oracle Solaris Cluster Manager, un ou
plusieurs systmes de fichiers du cluster existent dans le cas de figure o les disques partags sur
lesquels crer les systmes de fichiers du cluster taient suffisants.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
174
principal actuel du priphrique global pour lequel vous crez un systme de fichiers.
2
sont dtruites. Assurez-vous que le nom de priphrique de disque que vous spcifiez est
correct. S'il ne l'est pas, vous pourriez supprimer des donnes que vous souhaitiez conserver.
Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez
que la convention de nommage diffre pour chaque gestionnaire de volumes.
Volume Manager
Description
/dev/md/nfs/rdsk/d1
/dev/vx/rdsk/oradg/vol01
Aucun
/dev/global/rdsk/d1s3
Pour un systme de fichiers Veritas File System (VxFS), suivez les procdures fournies dans
votre documentation VxFS.
Pour chaque nud du cluster, crez un rpertoire de point de montage pour le systme de
fichiers du cluster.
Un point de montage est requis pour chaque nud, mme si vous n'accdez pas au systme de
fichiers du cluster partir de ce nud.
Astuce Pour faciliter l'administration, crez le point de montage dans le rpertoire
175
device-group
mountpoint
Pour chaque nud du cluster, ajoutez une entre au fichier /etc/vfstab pour le point de
montage.
Pour des informations dtailles, reportez-vous la page de manuel vfstab(4).
Remarque Si des zones non globales sont configures dans le cluster, assurez-vous de monter
les systmes de fichiers du cluster dans la zone globale, sur un chemin du rpertoire racine de la
zone globale.
a. Pour chaque entre, spcifiez les options de montage pour le type de systme de fichiers
que vous utilisez.
b. Pour monter automatiquement le systme de fichiers du cluster, dfinissez le champ mount
at boot sur yes.
c. Assurez-vous que pour chaque systme de fichiers du cluster, les informations contenues
dans l'entre /etc/vfstab sont identiques dans chaque nud.
d. Assurez-vous que les entres du fichier /etc/vfstab de chaque nud rpertorient les
priphriques dans le mme ordre.
e. Vrifiez les dpendances de l'ordre d'initialisation des systmes de fichiers.
Par exemple, admettons que phys-schost-1 monte le priphrique de disques d0 sur
/global/oracle/, et phys-schost-2 monte le priphrique de disques d1 sur
/global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter
/global/oracle/logs/ uniquement aprs que phys-schost-1 a initialis et mont
/global/oracle/.
5
176
Pour UFS, montez le systme de fichiers du cluster partir d'un autre nud du cluster.
Pour VxFS, montez le systme de fichiers du cluster partir du nud matre actuel du
device-group afin de vous assurer de la russite du montage du systme de fichiers.
De plus, dmontez un systme de fichiers VxFS du nud matre actuel du device-group afin
de vous assurer de la russite du dmontage du systme de fichiers.
Remarque Pour grer un systme de fichiers du cluster VxFS dans un environnement
Oracle Solaris Cluster, excutez les commandes administratives uniquement partir du
nud principal sur lequel le systme de fichiers du cluster VxFS est mont.
Sur chaque nud du cluster, vrifiez que le systme de fichiers du cluster est mont.
Vous pouvez utiliser soit la commande df, soit la commande mount pour rpertorier les
systmes de fichiers monts. Pour plus d'informations, reportez-vous aux pages de manuel
df(1M) ou mount(1M).
Les systmes de fichiers du cluster sont accessibles depuis les zones globale et non globale.
Exemple 543
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
177
la fermeture du systme qui intervient lorsque vous excutez la commande cluster shutdown
pour arrter le cluster dans son intgralit. Ils ne le sont pas en revanche lorsque vous excutez
la commande shutdown pour arrter un seul nud. Toutefois, si le nud en cours de fermeture
n'est pas le seul tre connect au disque, toute tentative d'accs au systme de fichiers du
cluster sur ce disque gnre une erreur.
Avant de dmonter des systmes de fichiers de cluster, assurez-vous que les prrequis suivants
ont t satisfaits :
1
2
Sur chaque nud, rpertoriez tous les processus qui exploitent le systme de fichiers afin
d'identifier ceux que vous allez arrter.
# fuser -c [ -u ] mountpoint
178
-c
Signale les fichiers qui constituent des points de montage pour les systmes
de fichiers ainsi que tous les fichiers figurant dans ces systmes de fichiers
monts.
-u
mountpoint
Sur chaque nud, arrtez tous les processus pour le systme de fichiers du cluster.
Arrtez les processus selon votre mthode prfre. Si ncessaire, faites appel la commande
suivante pour mener leur terme les processus associs au systme de fichiers du cluster.
# fuser -c -k mountpoint
Une commande SIGKILL est envoye chaque processus utilisant le systme de fichiers du
cluster.
5
mountpoint
Exemple 544
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
179
Pour supprimer les donnes prsentes sur le systme de fichiers du cluster, supprimez le
priphrique sous-jacent. Pour plus d'informations, reportez-vous la documentation du
gestionnaire de volume.
180
TABLEAU 56
Tche
Instructions
Les procdures, dcrites dans la section suivante, qui excutent la commande cldevice
incluent l'argument de chemin de disque. L'argument de chemin de disque se compose d'un
nom de nud et d'un nom de disque. Le nom de nud n'est pas ncessaire et sa valeur est
dfinie par dfaut sur all sans spcification de votre part.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
181
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Exemple 545
Exemple 546
Exemple 547
182
Node
Status
--------------/dev/did/rdsk/d1
/dev/did/rdsk/d2
/dev/did/rdsk/d3
/dev/did/rdsk/d4
/dev/did/rdsk/d5
/dev/did/rdsk/d6
/dev/did/rdsk/d7
/dev/did/rdsk/d8
---schost-1
schost-1
schost-1
schost-2
schost-1
schost-2
schost-1
schost-2
schost-1
schost-2
schost-2
schost-2
-----Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Exemple 548
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
183
Device Instance
--------------/dev/did/rdsk/d1
Node
---schost-2
Status
-----Unmonitored
Exemple 549
Node
---phys-schost-1
Status
-----fail
L'tat d'un chemin de disque incorrect est signal parce que le priphrique DID contrl est
indisponible pendant l'initialisation et, par consquent, l'instance DID n'est pas tlcharge
dans le pilote DID. Dans ce cas, mettez manuellement jour les informations DID.
1
partir d'un nud, mettez jour l'espace de noms des priphriques globaux.
# cldevice populate
184
Sur chaque nud, vrifiez que le traitement de la commande est arriv terme avant de passer
l'tape suivante.
La commande s'applique distance sur tous les nuds, mme si elle est excute partir d'un
seul nud. Pour savoir si la commande a termin le traitement, excutez la commande suivante
sur chaque nud du cluster.
# ps -ef | grep cldevice populate
Dans le dlai d'interrogation DPM, vrifiez que l'tat du chemin de disque dfectueux est
prsent OK.
# cldevice status disk-device
Device Instance
--------------dev/did/dsk/dN
Node
---phys-schost-1
Status
-----Ok
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
-o configurationfile
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
185
-i configurationfile
5
Exemple 550
Le fichier XML deviceconfig indique que le chemin entre phys-schost-2 et d3 n'est pas
contrl.
<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
<deviceList readonly="true">
<device name="d3" ctd="c1t8d0">
<devicePath nodeRef="phys-schost-1" monitored="true"/>
<devicePath nodeRef="phys-schost-2" monitored="false"/>
</device>
</deviceList>
</cluster>
186
</deviceList>
</cluster>
Utilisez la commande cldevice pour vrifier que le priphrique est maintenant contrl.
# cldevice status
Voir aussi
Pour tous les nuds du cluster, activez la rinitialisation automatique d'un nud en cas d'chec
de tous les chemins contrls de disques partags qui permettent d'y accder.
# clnode set -p reboot_on_path_failure=enabled +
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster
187
Pour tous les nuds du cluster, dsactivez la rinitialisation automatique d'un nud en cas
d'chec de tous les chemins contrls de disques partags qui permettent d'y accder.
# clnode set -p reboot_on_path_failure=disabled +
188
C H A P I T R E
Gestion de Quorum
Ce chapitre dtaille les procdures de gestion des priphriques de quorum au sein de Oracle
Solaris Cluster et des serveurs de quorum Oracle Solaris Cluster. Pour plus d'informations
propos des concepts de quorum, reportez-vous la section Quorum and Quorum Devices du
Oracle Solaris Cluster Concepts Guide.
Toutes les commandes de quorum doivent tre excutes sur le nud votant du cluster
global.
Afin d'obtenir la plus grande disponibilit du cluster, assurez-vous que le nombre total de
votes auxquels ont particip les priphriques de quorum est infrieur au nombre total de
votes auxquels ont particip les nuds. Sinon, les nuds ne peuvent pas former un cluster si
tous les priphriques de quorum sont indisponibles, mme si tous les nuds fonctionnent.
commandes de Oracle Solaris Cluster. Lorsque clsetup s'excute, la commande gnre les
commandes spcifiques appropries, dans ce cas les commandes clquorum. Ces commandes
gnres sont illustres dans les exemples que vous trouverez la fin des procdures.
Pour afficher la configuration de quorum, utilisez clquorum show. La commande clquorum
list affiche les noms des priphriques de quorum dans le cluster. La commande clquorum
status fournit les informations du statut et du nombre de votes.
La plupart des exemples fournit dans cette section proviennent d'un cluster trois nuds.
TABLEAU 61
190
Tche
Instructions
TABLEAU 61
(Suite)
Tche
Instructions
Toutes les conditions requises, les procdures et les restrictions documentes pour la
fonction de reconfiguration dynamique d'Oracle Solaris s'appliquent galement au support
de reconfiguration dynamique d'Oracle Solaris Cluster ( l'exception des oprations de
quiescence du systme d'exploitation). Par consquent, reportez-vous la documentation
de la fonction de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction
avec Oracle Solaris Cluster. Vous devez vous concentrer tout particulirement sur les
problmes affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase
de sparation de la reconfiguration dynamique.
Pour supprimer un priphrique de quorum, vous devez suivre les tapes suivantes dans l'ordre
indiqu.
191
TABLEAU 62
Tche
Instructions
un pool de stockage Solaris ZFS. Si un priphrique de quorum configur est ajout un pool
de stockage Solaris ZFS, le disque est rtiquet comme disque EFI, les informations de
configuration de quorum sont perdues et le disque ne fournit plus de vote de quorum au cluster.
Une fois qu'un disque se trouve dans un pool de stockage, ce disque peut tre configur en tant
que priphrique de quorum. Vous pouvez galement annuler la configuration du disque,
l'ajouter au pool de stockage, puis le reconfigurer en tant que priphrique de quorum.
Le logiciel Oracle Solaris Cluster prend en charge les types de priphriques de quorum
suivants :
Disque-partag attach directement pour les priphriques SCSI ou SATA (Serial Attached
Technology Attachment)
Sun NAS
Les procdures d'ajout de ces priphriques sont fournies dans les sections suivantes :
192
quorum. Si vous ajoutez un disque rpliqu en tant que priphrique de quorum, vous recevrez
le message d'erreur suivant et la commande quitte avec un code d'erreur.
Disk-name is a replicated device. Replicated devices cannot be configured as
quorum devices.
Pour les priphriques de quorum, vous pouvez utiliser un disque qui contient des donnes
utilisateur ou qui est membre d'un groupe de priphriques. Affichez le protocole utilis par le
sous-systme de quorum avec un disque partag en regardant la valeur mode daccs pour le
disque partag dans la sortie de la commande cluster show.
Vous pouvez galement effectuer ces procdures l'aide de l'interface graphique de Oracle
Solaris Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle
Solaris Cluster Manager.
Reportez-vous aux pages de manuel concernant clsetup(1CL) et clquorum(1CL) pour plus
d'informations propos des commandes utilises dans les procdures suivantes.
Chapitre 6 Gestion de Quorum
193
Saisissez le nombre correspondant l'option pour l'ajout d'un priphrique de quorum, puis
saisissez yes lorsque l'utilitaire clsetup vous demande de confirmer le priphrique de quorum
que vous ajoutez.
L'utilitaire clsetup vous demande le type de priphrique de quorum que vous souhaitez
ajouter.
194
Exemple 61
Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Start the clsetup utility:]
# clsetup
[Select Quorum>Add a quorum device]
[Answer the questions when prompted.]
[You will need the following information.]
[Information:
Example:]
[Directly attached shared disk
shared_disk]
[Global device
d20]
[Verify that the clquorum command was completed successfully:]
clquorum add d20
Command completed successfully.
[Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is added:]
# clquorum list -v
Quorum
------d20
scphyshost-1
scphyshost-2
Type
---shared_disk
node
node
195
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Utilisez l'interface graphique de Sun NAS ou celle de Sun Unified Storage pour paramtrer un
priphrique iSCSI sur le gestionnaire de fichiers Sun NAS.
Si vous disposez d'un priphrique Sun Unified Storage, utilisez l'interface utilisateur du
navigateur pour effectuer les tapes ci-dessous. Si vous disposez d'un priphrique Sun NAS,
utilisez les commandes suivantes :
a. Crez un volume de fichier d'approximativement 50 Mga-octets.
b. Pour chaque nud, crez une liste d'accs iSCSI.
i. Utilisez le nom du cluster en tant que nom de la liste d'accs iSCSI.
ii. Ajoutez le nom du nud initiateur de chaque nud du cluster dans la liste d'accs. CHAP
et IQN ne sont pas ncessaires.
c. Configurez le LUN iSCSI.
Vous pouvez utiliser le nom du volume du fichier de sauvegarde comme nom du LUN.
Ajoutez la liste d'accs pour chaque nud au LUN.
Sur chaque nud du cluster, dtectez le LUN iSCSI et dfinissez la liste d'accs iSCSI pour la
configuration statique.
# iscsiadm modify discovery -s enable
# iscsiadm list discovery
Discovery:
Static: enabled
Send Targets: disabled
iSNS: disabled
# iscsiadm add static-config iqn.LUNName,IPAddress_of_NASDevice
# devfsadm -i iscsi
# cldevice refresh
partir d'un nud du cluster, configurez les ID de priphrique pour le LUN iSCSI.
# /usr/cluster/bin/cldevice populate
196
Identifiez le priphrique DID reprsentant le LUN du priphrique NAS qui vient d'tre
configur dans le cluster avec l'iSCSI. Utilisez la commande cldevice show pour voir la liste des
noms d'ID de priphrique. Reportez-vous la page de manuel concernant cldevice(1CL) pour
des informations supplmentaires.
Utilisez la commande clquorum pour ajouter le priphrique NAS en tant que priphrique de
quorum en utilisant le priphrique DID identifi l'tape 4.
# clquorum add d20
Le cluster possde des rgles par dfaut pour choisir entre les protocoles de quorum scsi-2,
scsi-3 ou logiciel. Pour plus d'informations, reportez-vous la page de manuel clquorum(1CL).
Exemple 62
Ajout d'un priphrique de quorum Sun NAS ou d'un priphrique de quorum Sun
Storage 7000 Unified Storage Systems NAS
L'exemple suivant montre la commande clquorum gnre par clsetup lorsqu'il ajoute un
priphrique de quorum Sun NAS et une tape de vrification.
Vous devez configurer le LUN iSCSI sur le gestionnaire de fichiers clusteris pour l'utiliser
en tant que priphrique de quorum.
197
Vous devez configurer l'unit NAS pour NetApp pour utiliser NTP pour la synchronisation
de l'heure.
Au moins un des serveurs NTP slectionns pour le gestionnaire de fichiers clusteris doit
tre un serveur NTP pour les nuds de Oracle Solaris Cluster.
Lors de l'initialisation du cluster, initialisez toujours le priphrique NAS avant les nuds
du cluster.
Si vous initialisez les priphriques dans un ordre incorrect, vos nuds ne peuvent pas
trouver le priphrique de quorum. Si un nud devait chouer dans cette situation, votre
cluster pourrait ne pas tre capable de rester en service. Si une interruption de service se
produit, vous devez soit rinitialiser la totalit du cluster, soit supprimer le priphrique de
quorum NAS pour NetApp et l'ajouter nouveau.
Assurez-vous que tous les nuds de Oracle Solaris Cluster sont en ligne et peuvent
communiquer avec le gestionnaire de fichiers clusteris de NetApp.
198
10
11
Exemple 63
Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any cluster node.
[Start the clsetup utility:]
# clsetup
[Select Quorum>Add a quorum device]
[Answer the questions when prompted.]
[You will need the following information.]
[Information:
Example:]
Chapitre 6 Gestion de Quorum
199
[Quorum Device
Netapp_nas quorum device]
[Name:
qd1]
[Filer:
nas1.sun.com]
[LUN ID:
0]
[Verify that the clquorum command was completed successfully:]
clquorum add -t netapp_nas -p filer=nas1.sun.com,-p lun_id=0 qd1
Command completed successfully.
[Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is added:]
# clquorum list -v
Quorum
Type
---------qd1
netapp_nas
scphyshost-1
node
scphyshost-2
node
Avant de pouvoir ajouter un serveur de quorum Oracle Solaris Cluster en tant que priphrique
de quorum, le logiciel Oracle Solaris Cluster Quorum Server doit tre install sur la machine
hte et le serveur de quorum doit tre dmarr et en cours d'excution. Pour plus
d'informations propos de l'installation du serveur de quorum, reportez-vous la section
Installation et configuration du logiciel Serveur de quorum du Guide dinstallation du logiciel
Oracle Solaris Cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Assurez-vous que tous les nuds d'Oracle Solaris Cluster sont en ligne et peuvent
communiquer avec Oracle Solaris Cluster Quorum Server.
a. Assurez-vous que les commutateurs rseau directement connects aux nuds du cluster
remplissent un des critres suivants :
Une de ces fonctions est ncessaire pour assurer la communication immdiate entre les
nuds du cluster et le serveur de quorum. Si cette communication est significativement
retarde par le commutateur, le cluster interprte cette prvention de communication
comme une perte du serveur du priphrique de quorum.
200
255.255.255.0
ii. Ajoutez netmask + broadcast + l'entre du nom d'hte dans chaque fichier
/etc/hostname.adaptater.
nodename netmask + broadcast +
c. Sur chaque nud du cluster, ajoutez le nom d'hte du serveur de quorum au fichier
/etc/inet/hosts ou au fichier /etc/inet/ipnodes.
Ajoutez au fichier un mappage du nom d'hte vers l'adresse, comme suit.
ipaddress qshost1
ipaddress
qshost1
d. Si vous utilisez un service de nommage, ajoutez le mappage du nom d'hte vers l'adresse du
serveur de quorum la base de donnes de service de noms.
3
201
Saisissez le numro de port utilis par le serveur de quorum pour communiquer avec les nuds
du cluster.
L'utilitaire clsetup vous demande de confirmer l'ajout du nouveau priphrique de quorum.
10
11
Exemple 64
Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Start the clsetup utility:]
# clsetup
[Select Quorum > Add a quorum device]
[Answer the questions when prompted.]
[You will need the following information.]
[Information:
Example:]
[Quorum Device
quorum_server quorum device]
202
[Name:
[Host Machine Name:
[Port Number:
qd1]
10.11.124.84]
9001]
Type
---quorum_server
node
node
# clquorum status
=== Cluster Quorum ===
-- Quorum Votes Summary -Needed
-----3
Present
------5
Possible
-------5
Present
------1
1
Possible Status
-------- -----1
Online
1
Online
Present
------1
1
1
Possible
-------1
1
1
Status
-----Online
Online
Online
203
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Quittez clsetup.
204
Exemple 65
Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Determine the quorum device to be removed:]
# clquorum list -v
[Start the clsetup utility:]
# clsetup
[Select Quorum>Remove a quorum device]
[Answer the questions when prompted.]
Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is removed:]
# clquorum list -v
Quorum
------scphyshost-1
scphyshost-2
scphyshost-3
Type
---node
node
node
Erreurs
frquentes
205
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Exemple 66
[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.]
[Place the cluster in install mode:]
# cluster set -p installmode=enabled
[Remove the quorum device:]
# clquorum remove d3
[Verify that the quorum device has been removed:]
# clquorum list -v
Quorum
Type
---------scphyshost-1
node
scphyshost-2
node
scphyshost-3
node
206
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
207
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Exemple 67
208
sc-phys-schost-1
sc-phys-schost-2
sc-phys-schost-3
node
node
node
Example:
d2
Example:
d2
d2
phys-schost-1, phys-schost-2, phys-schost-3
209
Present
------1
Possible
-------1
Status
-----Online
configur. S'il s'agit du dernier priphrique de quorum d'un cluster deux nuds, clquorum ne
pourra pas mettre le priphrique en mode de maintenance.
Pour mettre un nud du cluster en mode de maintenance, reportez-vous Mise en mode de
maintenance d'un nud la page 275.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
priphrique
210
Exemple 68
Voir aussi
Present
------1
Possible
-------1
Status
-----Offline
Lorsque vous configurez un priphrique de quorum, le logiciel Oracle Solaris Cluster assigne
au priphrique de quorum un nombre de votes N-1 o N est le nombre de votes connects au
priphrique de quorum. Par exemple, un priphrique de quorum connect deux nuds
avec des nombres de votes diffrents de zro possde un vote de quorum de un (deux moins
un).
211
Pour en savoir plus sur les nombres de votes de quorum, reportez-vous la section About
Quorum Vote Counts du Oracle Solaris Cluster Concepts Guide.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
priphrique
Si vous rinitialisez le nombre de quorum parce que le nud tait en mode de maintenance,
redmarrez le nud.
Exemple 69
phys-schost-2
1
1
0x43BAC41300000001
Node Name:
Node ID:
Quorum Vote Count:
Reservation Key:
phys-schost-3
2
1
0x43BAC41300000002
212
d3
Enabled:
Votes:
Global Name:
Type:
Access Mode:
Hosts (enabled):
yes
1
/dev/did/rdsk/d20s2
shared_disk
scsi2
phys-schost-2, phys-schost-3
Exemple 610
phys-schost-2
1
1
0x43BAC41300000001
Node Name:
Node ID:
Quorum Vote Count:
phys-schost-3
2
1
213
Reservation Key:
0x43BAC41300000002
d3
yes
1
/dev/did/rdsk/d20s2
shared_disk
scsi2
phys-schost-2, phys-schost-3
214
Remarque Si vous avez ajout un priphrique de quorum supplmentaire dans l'tape 1, vous
pouvez maintenant le supprimer en toute scurit. Pour supprimer le priphrique de quorum,
reportez-vous la section Suppression d'un priphrique de quorum la page 204.
/usr/cluster/lib/sc/scqsd
-d quorumdirectory
215
-p port
Les noms d'instances sont facultatifs. Si vous spcifiez un nom pour le serveur de quorum, il ne
doit tre utilis par aucun des autres serveurs de quorum de votre systme. Si vous n'indiquez
pas de nom d'instance, vous devez faire rfrence au serveur de quorum en utilisant le port sur
lequel il effectue la recherche.
Connectez-vous en tant que superutilisateur sur l'hte o vous souhaitez dmarrer le logiciel
Oracle Solaris Cluster.
quorumserver
216
Exemple 612
Connectez-vous en tant que superutilisateur sur l'hte o vous souhaitez dmarrer le logiciel
Oracle Solaris Cluster.
-d
quorumserver
Exemple 613
217
Exemple 614
Connectez-vous en tant que superutilisateur l'hte sur lequel vous souhaitez afficher les
informations du serveur de quorum.
Les autres utilisateurs doivent disposer des droits d'autorisation RBAC (contrle d'accs bas
sur les rles) solaris.cluster.read. Pour plus d'informations propos des profils de droits
RBAC, reportez-vous la page de manuel rbac(5).
quorumserver
Exemple 615
218
4
0x439a2efb00000004
Exemple 616
Node ID:
Registration key:
1
0x439a2efb00000001
Node ID:
Registration key:
2
0x439a2efb00000002
Node ID:
Registration key:
3
0x439a2efb00000003
Node ID:
Registration key:
4
0x439a2efb00000004
Exemple 617
219
Les informations du cluster du serveur de quorum ne sont pas valides dans les cas suivants :
Lorsqu'un cluster est mis hors service sans avoir pralablement supprim le priphrique de
quorum du cluster l'aide de la commande clquorum remove
Lorsqu'un priphrique de quorum de type quorum__server est supprim d'un cluster alors
que l'hte du serveur de quorum est en panne.
-cclustername
-clusterID
L'ID du cluster.
L'ID du cluster correspond un nombre hexadcimal 8 chiffres. Vous
pouvez obtenir l'ID du cluster en excutant la commande cluster show sur
un nud du cluster.
quorumserver
220
-y
Exemple 618
(Facultatif) Si aucun autre priphrique de quorum n'est configur sur cette instance de serveur,
arrtez le serveur de quorum.
221
222
C H A P I T R E
En rgle gnrale, vous pouvez utiliser la commande clsetup pour administrer le transport
intracluster des interconnexions de cluster. Pour plus d'informations, reportez-vous la page de
manuel clsetup(1CL). Toutes les commandes d'interconnexion de cluster doivent tre
excutes sur le nud votant du cluster global.
Pour les procdures d'installation logicielle du cluster, reportez-vous au Guide dinstallation du
logiciel Oracle Solaris Cluster. Pour les procdures de maintenance des composants matriels du
cluster, reportez-vous au Oracle Solaris Cluster 3.3 Hardware Administration Manual.
Remarque Vous pouvez gnralement choisir d'utiliser le nom du port par dfaut, le cas
chant, pendant les procdures d'interconnexion de cluster. Le nom du port par dfaut est gal
au numro d'ID du nud hbergeant les extrmits de l'adaptateur du cble.
TABLEAU 71
Tche
Instructions
224
Toutes les conditions requises, les procdures et les restrictions documentes pour la
fonction de reconfiguration dynamique d'Oracle Solaris s'appliquent galement au support
de reconfiguration dynamique d'Oracle Solaris Cluster ( l'exception des oprations de
quiescence du systme d'exploitation). Par consquent, reportez-vous la documentation
de la fonction de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction
avec Oracle Solaris Cluster. Vous devez vous concentrer tout particulirement sur les
problmes affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase
de sparation de la reconfiguration dynamique.
Vous devez supprimer l'ensemble d'un adaptateur actif du cluster pour pouvoir effectuer
une opration de reconfiguration dynamique ou une opration d'interconnexion active du
cluster. Pour ce faire, utilisez le menu clsetup ou les commandes appropries.
Attention Dans Oracle Solaris Cluster, chaque nud du cluster doit disposer au moins d'un
chemin d'accs fonctionnel pointant vers chacun des nuds du cluster. Vous ne devez pas
dsactiver l'interface de l'interconnexion prive prenant en charge le dernier chemin d'accs
existant pointant vers chacun des nuds du cluster.
Terminez les procdures suivantes selon l'ordre indiqu, lorsque vous effectuez des oprations
de reconfiguration dynamique sur des interfaces de rseau public.
TABLEAU 72
Liste des tches : reconfiguration dynamique avec des interfaces de rseau public
Tche
Instructions
225
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Il n'est pas ncessaire de vous connecter en tant que superutilisateur pour suivre cette
procdure.
1
Exemple 71
Reportez-vous au tableau ci-dessous pour les messages d'tat les plus frquents.
Message d'tat
Path online
Path waiting
Faulted
Le chemin d'accs ne fonctionne pas. Il peut s'agir d'un tat temporaire, comme lorsque
les chemins d'accs sont en attente et passent ensuite en ligne. Si le message persiste,
lorsque vous excutez nouveau la commande clinterconnect status, vous devez
effectuer une action corrective.
Endpoint
-------phys-schost-2:qfe1
phys-schost-2:qfe0
phys-schost-3:qfe1
phys-schost-3:qfe0
phys-schost-3:qfe1
phys-schost-3:qfe0
Status
-----Path online
Path online
Path online
Path online
Path online
Path online
226
Vous pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Adaptateur
Entre
ce
set ce:ce_taskq_disable=1
ipge
set ipge:ipge_taskq_disable=1
ixge
set ixge:ixge_taskq_disable=1
227
Exemple 72
qfe2
Enabled
dlpi
ce
0
1
10000
1000
80
70
172.16.0.129
255.255.255.128
0
Enabled
Transport Switch:
Switch State:
Switch Type:
Switch Port Names:
Switch Port State(1):
Switch Port State(2):
tapes suivantes
hub2
Enabled
switch
1 2
Enabled
Enabled
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
229
Attention Si vous recevez un message d'erreur tel que path faulted , lorsque vous tentez de
supprimer un nud se trouvant sur un cluster deux nuds, vous devez rsoudre ce problme
avant de poursuivre cette procdure. Il se peut que le nud ne soit pas disponible. Si vous
supprimez le dernier chemin d'accs fonctionnel, le nud ne fait plus partie du cluster et cela
peut entraner une reconfiguration de ce dernier.
3
230
Remarque Vous ne pouvez pas supprimer un commutateur, si les ports de ce dernier sont
encore utiliss en tant qu'extrmits d'un cble de transport quelconque.
9
Le cble ou l'adaptateur de transport supprim du nud ne doit pas tre affich dans le rsultat
de cette commande.
Exemple 73
qfe2
Enabled
dlpi
ce
0
1
10000
1000
80
70
231
Adapter
Adapter
Adapter
Adapter
Property (ip_address):
Property (netmask):
Port Names:
Port STate (0):
172.16.0.129
255.255.255.128
0
Enabled
hub2
Enabled
switch
1 2
Enabled
Enabled
Saisissez le numro qui correspond l'option d'activation du cble de transport et appuyez sur
la touche Entre.
Suivez les instructions de l'invite. Vous devez spcifier les noms de l'adaptateur et du nud de
l'une des extrmits du cble que vous tentez d'identifier.
232
Exemple 74
233
Attention Chaque nud du cluster doit comporter au moins un chemin d'accs de transport
fonctionnel pointant vers tous les autres nuds du cluster. Le cluster ne peut pas contenir deux
nuds isols l'un de l'autre. Vous devez toujours vrifier l'interconnexion de cluster d'un nud
avant de dconnecter un cble. Vous ne pouvez dsactiver la connexion d'un cble que lorsque
vous avez vrifi que ce dernier est redondant. En d'autres termes, vous devez vous assurer de
l'existence d'une autre connexion. Si vous dsactivez le dernier cble fonctionnel d'un nud, ce
dernier ne fait plus partie du cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
234
Exemple 75
235
Avant de
commencer
1
236
Pour modifier l'adresse IP de rseau priv ou la plage d'adresses IP, saisissez yes (oui) et appuyez
sur la touche Entre.
L'utilitaire clsetup affiche l'adresse IP de rseau priv par dfaut, 172.16.0.0, et vous demande
si vous l'acceptez.
Pour l'accepter et passer la modification de la plage d'adresses IP, saisissez yes, puis
appuyez sur la touche Entre.
L'utilitaire clsetup vous demande si vous acceptez le masque de rseau par dfaut. Passez
l'tape suivante pour saisir votre rponse.
Pour modifier l'adresse IP de rseau priv par dfaut, effectuez les sous-tapes suivantes.
a. Saisissez no (non) lorsque l'utilitaire clsetup vous demande si vous acceptez l'adresse
par dfaut, puis appuyez sur la touche Entre.
L'utilitaire clsetup vous invite saisir la nouvelle adresse IP de rseau priv.
b. Tapez la nouvelle adresse IP, puis appuyez sur la touche Entre.
L'utilitaire clsetup affiche le masque de rseau par dfaut, puis vous demande si vous
l'acceptez.
Pour accepter la plage d'adresses IP par dfaut, saisissez yes, puis appuyez sur la touche
Entre.
Passez ensuite l'tape suivante.
237
b. Entrez le nombre de nuds, de rseaux privs et de clusters de zones que vous prvoyez
de configurer dans le cluster.
En fonction des nombres saisis, l'utilitaire clsetup propose deux masques de rseau :
Le premier masque de rseau est celui qui est au minimum ncessaire la prise en
charge du nombre de nuds, de rseaux privs et de clusters de zones que vous avez
spcifi.
Le second masque de rseau prend en charge deux fois plus de nuds, rseaux privs
et clusters de zones par rapport au nombre que vous avez spcifi, et ce en prvision
d'une ventuelle augmentation.
c. Spcifiez l'un des masques de rseau calculs ou un autre masque de rseau prenant en
charge le nombre prvu de nuds, de rseaux privs et de clusters de zones.
7
Tapez yes lorsque l'utilitaire clsetup vous demande si vous souhaitez poursuivre la mise jour.
Rinitialisez chaque nud du cluster en mode cluster en effectuant les sous-tapes suivantes
sur chaque nud :
a. Initialisez le nud.
ok boot
Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
10
238
Vous pouvez utiliser des groupes IPMP bass sur une sonde ou un lien dans un cluster. Un
groupe IPMP bas sur une sonde teste l'adresse IP cible et fournit la meilleure protection en
reconnaissant plus de conditions qui risque de compromettre la disponibilit.
Vous devez configurer une adresse IP de test pour chaque adaptateur dans les groupes de
groupe de multiacheminement suivants :
Les adresses IP de test ne doivent pas tre utilises par des applications normales car elles ne
sont pas hautement disponibles.
Il n'existe aucune restriction portant sur les noms des groupes de multiacheminement.
Cependant, lorsque vous configurez un groupe de ressources, selon la convention de
nommage netiflist, le nom de ce dernier est constitu d'un nom de groupe de
multiacheminement quelconque, suivi du numro d'ID et du nom du nud. Prenons, par
exemple, le groupe de multiacheminement sc_ipmp0. La convention de nommage
netiflist peut tre soit sc_ipmp0@1, soit sc_ipmp0@phys-schost-1, o l'adaptateur se
trouve sur le nud phys-schost-1, dont l'ID est gal 1.
239
vitez de rebrancher les adaptateurs sur d'autres sous-rseaux sans les supprimer
auparavant de leurs groupes de multiacheminement respectifs.
Vous pouvez effectuer des oprations logiques sur un adaptateur, mme si ce dernier
contrle le groupe de multiacheminement.
Vous devez conserver au moins une connexion au rseau public pour chaque nud du
cluster. Sans connexion au rseau public, vous n'avez pas accs au cluster.
Pour afficher l'tat des groupes de multiacheminement sur rseau IP d'un cluster, utilisez la
commande clinterconnect status.
Instructions
SE Oracle Solaris 10
240
Toutes les conditions requises, les procdures et les restrictions documentes pour la
fonction de reconfiguration dynamique d'Oracle Solaris s'appliquent galement au support
de reconfiguration dynamique d'Oracle Solaris Cluster ( l'exception des oprations de
quiescence du systme d'exploitation). Par consquent, reportez-vous la documentation
de la fonction de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction
avec Oracle Solaris Cluster. Vous devez vous concentrer tout particulirement sur les
problmes affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase
de sparation de la reconfiguration dynamique.
Les oprations de suppression de carte ne peuvent aboutir que lorsque les interfaces de
rseau public ne sont pas actives. Avant de supprimer une interface de rseau public active,
basculez les adresses IP de l'adaptateur supprimer vers un autre adaptateur du groupe de
multiacheminement. Pour ce faire, utilisez la commande if_mpadm(1M).
Si vous tentez de supprimer une carte d'interface rseau public sans l'avoir correctement
dsactive, Oracle Solaris Cluster rejette l'opration et identifie l'interface pouvant tre
affecte par l'opration.
Terminez les procdures suivantes selon l'ordre indiqu, lorsque vous effectuez des oprations
de reconfiguration dynamique sur des interfaces de rseau public.
TABLEAU 74
Liste des tches : reconfiguration dynamique avec des interfaces de rseau public
Tche
Instructions
2. Supprimez l'adaptateur
du groupe de
multiacheminement
l'aide de la commande
ifconfig .
3. Effectuez l'opration de
reconfiguration
dynamique sur l'interface
de rseau public.
241
242
C H A P I T R E
Pour plus d'informations sur les tches de maintenance du cluster, reportez-vous la section
Chapitre 9, Administration du cluster.
Liste des tches : ajout d'un nud un cluster de zones ou un cluster global existant
Instructions
Installez l'adaptateur hte sur le nud et assurez-vous Oracle Solaris Cluster 3.3 Hardware Administration
que les interconnexions de cluster existant prennent
Manual
en charge ce nouveau nud.
243
TABLEAU 81
Liste des tches : ajout d'un nud un cluster de zones ou un cluster global existant
(Suite)
Tche
Instructions
244
Connectez-vous en tant que superutilisateur sur le membre de cluster global actif. Effectuez ces
tapes depuis un nud du cluster global.
Assurez-vous que les conditions requises par l'installation du matriel ont t remplies et que
les tches de configuration rpertories dans la liste de tche du Tableau 81 ont t effectues.
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A
Saisissez le numro qui correspond l'option affichant le menu des nouveaux nuds et
appuyez sur la touche Entre.
Saisissez le numro qui correspond l'option modifiant la liste autorise et appuyez sur la
touche Entre. Spcifiez le nom d'une machine pouvant s'auto-ajouter.
Suivez les invites pour ajouter le nom du nud au cluster. Vous tes invit saisir le nom du
nud ajouter.
Pour empcher l'ajout d'une nouvelle machine au cluster, saisissez le numro qui correspond
l'option ordonnant au cluster d'ignorer les demandes d'ajout de nouvelles machines. Appuyez
sur la touche Retour.
Suivez les invites de l'utilitaire clsetup. Cette option ordonne au cluster d'ignorer toutes les
demandes des nouvelles machines provenant du rseau public et tentant de s'auto-ajouter au
cluster.
Pour ajouter manuellement un nud un cluster de zones, vous devez spcifier le nom de
l'hte Oracle Solaris et du nud virtuel. Vous devez galement spcifier une ressource de
rseau utiliser pour la communication avec le rseau public sur chaque nud. Dans l'exemple
suivant, la zone se nomme sczone et l'adaptateur de rseau public se nomme bge0 sur les deux
machines.
clzc:sczone>add node
clzc:sczone:node>set physical-host=phys-cluster-1
clzc:sczone:node>set hostname=hostname1
clzc:sczone:node>add net
clzc:sczone:node:net>set address=hostname1
clzc:sczone:node:net>set physical=bge0
clzc:sczone:node:net>end
clzc:sczone:node>end
clzc:sczone>add node
clzc:sczone:node>set physical-host=phys-cluster-2
Chapitre 8 Ajout et suppression d'un nud
245
clzc:sczone:node>set hostname=hostname2
clzc:sczone:node>add net
clzc:sczone:node:net>set address=hostname2
clzc:sczone:node:net>set physical=bge0
clzc:sczone:node:net>end
clzc:sczone:node>end
Exemple 81
Voir aussi
clsetup(1CL)
Pour obtenir une liste complte des tches permettant d'ajouter un nud au cluster,
reportez-vous au Tableau 81Listedestches :ajoutd'unnud un cluster.
Pour ajouter un nud un groupe de ressources existant, reportez-vous au Oracle Solaris
Cluster Data Services Planning and Administration Guide.
Devenez superutilisateur sur le nud de cluster global sur lequel vous crez le nud non
votant.
Vous devez utiliser la zone globale.
Vrifiez au niveau de chaque nud que les services multiutilisateurs Service Management
Facility (SMF) sont en ligne.
Si les services ne sont pas encore en ligne pour un nud, attendez leur mise en ligne, puis passez
l'tape suivante.
phys-schost# svcs multi-user-server node
STATE
STIME
FMRI
online
17:52:55 svc:/milestone/multi-user-server:default
zoneadm list -v
STATUS
PATH
running
/
ready
/zone-path
(Facultatif) Pour une zone IP partage, affectez une adresse IP et un nom d'hte privs la zone.
La commande suivante choisit et assigne une adresse IP disponible partir de la plage
d'adresses IP prives du cluster. La commande affecte galement le nom d'hte priv spcifique,
ou alias hte, la zone et le mappe l'adresse IP prive affecte.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone
-p
247
zprivatehostname=hostalias
node
Nom du nud.
zone
Connectez-vous la zone.
Utilisez un fichier /etc/sysidcfg.
c. Ajoutez le commutateur cluster au dbut des recherches pour les entres hosts et
netmasks, suivi du commutateur files.
Les entres modifies doivent se prsenter comme suit :
...
hosts:
...
netmasks:
...
d. Pour toutes les autres entres, assurez-vous que le commutateur files se trouve en
premire position dans l'entre.
e. Quittez la zone.
8
248
Si vous crez une zone IP exclusive, configurez les groupes IPMP dans chaque fichier
/etc/hostname.interface de la zone.
Vous devez configurer un groupe IPMP pour chaque adaptateur de rseau public utilis pour le
trafic de service de donnes de cette zone. Ces informations ne sont pas hrites d'une zone
globale. Reportez-vous la section Rseaux publics du Guide dinstallation du logiciel Oracle
Solaris Cluster pour obtenir plus d'informations sur la configuration des groupes IPMP dans un
cluster.
Dfinissez les mappages nom-adresse pour toutes les ressources de nom d'hte logique
utilises par la zone.
a. Ajoutez des mappages nom-adresse au fichier /etc/inet/hosts de la zone.
Ces informations ne sont pas hrites d'une zone globale.
b. Si vous utilisez un serveur de noms, ajoutez les mappages nom-adresse.
configuration RAC, cette suppression peut entraner une erreur grave au niveau du nud,
pendant la rinitialisation. Pour savoir comment supprimer un nud d'une configuration RAC,
reportez-vous la section Suppression de Prise en charge dOracle RAC des nuds
slectionns du Guide Service de donnes Oracle Solaris Cluster pour Oracle Real Application
Clusters. Aprs avoir termin ce processus, suivez les tapes indiques ci dessous.
TABLEAU 82
Tche
Instructions
249
TABLEAU 82
(Suite)
Tche
Instructions
Vous pouvez galement utiliser les commandes clnode evacuate et shutdown dans un cluster
de zones.
3
250
Initialisez le nud du cluster global supprimer et mettez-le en mode non cluster. Pour un
nud de cluster de zones, vous devez suivre les instructions se trouvant dans la section
Suppression d'un nud d'un cluster de zones la page 250 avant d'effectuer cette tape.
251
shutdown -g -y -i0
Press any key to continue
a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
d. Appuyez sur la touche Entre pour accepter les modifications et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
252
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-
excutez la commande suivante sur un nud actif quelconque du cluster : clnode clear -F
<node-to-be-removed> . Vrifiez la suppression du nud en excutant la commande clnode
status <nodename>.
4
Si la commande clnode remove n'aboutit pas ou que la rfrence au nud n'existe plus,
excutez la commande clnode clear -F nodename sur un nud actif.
Remarque Si vous supprimez le dernier nud du cluster, il doit tre en mode non cluster et le
cluster ne doit comporter aucun nud actif.
5
Positionnez-vous sur un autre nud du cluster et assurez-vous que le nud est supprim.
phys-schost# clnode status nodename
Si vous ne voulez pas dsinstaller Oracle Solaris Cluster du nud supprim, vous pouvez
supprimer physiquement le nud du cluster en supprimant les connexions matrielles
comme dcrit dans le Oracle Solaris Cluster 3.3 Hardware Administration Manual.
253
Exemple 82
Voir aussi
Connectez-vous en tant que superutilisateur sur le nud du cluster global dans lequel vous
crez un nud non votant.
254
Sauvegardez les tables des bases de donnes, les services de donnes et les volumes associs
la baie de stockage supprimer.
La commande clnode evacuate bascule tous les groupes de priphriques du nud spcifi
vers le nud de prdilection suivant. La commande bascule galement tous les groupes de
ressources des nuds votants et non votants du nud spcifi vers le nud de prdilection
votant ou non votant suivant.
4
255
node
Le nom du nud.
zone
Pour savoir comment modifier la liste des nuds d'un groupe de ressources, reportez-vous au
Oracle Solaris Cluster Data Services Planning and Administration Guide.
Remarque Les noms de la proprit, du groupe et du type de ressource sont sensibles la casse,
lorsque la commande clresourcegroup est excute.
7
10
11
12
256
13
Mettez jour l'espace de noms du priphrique du nud en mettant jour les entres
/devices et /dev.
phys-schost# devfsadm -C
cldevice refresh
14
Faites en sorte que le nud rejoigne le cluster global. Suivez cette procdure sur un cluster
global uniquement.
phys-schost# boot
257
Si oui, effectuez les tapes suivantes pour supprimer le nud des groupes de priphriques.
Si le nud n'est pas parvenu rejoindre le cluster, attribuez un autre nom de votre choix au
fichier du nud /etc/cluster/ccr, comme par exemple : ccr.old.
# mv /etc/cluster/ccr /etc/cluster/ccr.old
258
C H A P I T R E
Administration du cluster
Ce chapitre contient les procdures d'administration affectant l'ensemble d'un cluster global ou
un cluster de zones :
Dans ce chapitre, phys-schost# fait rfrence une invite du cluster global. L'lment
clzc:schost> reprsente l'invite de shell interactive de la commande clzonecluster.
259
TABLEAU 91
Tche
Instructions
Ajout d'un nom d'hte priv un nud non votant d'un cluster
global la page 270
Modification du nom d'hte priv d'un nud la page 267
260
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Pour modifier le nom du cluster, saisissez le numro correspondant l'option Other Cluster
Properties (Autres proprits du cluster).
Le menu Other Cluster Properties (Autres proprits du cluster) s'affiche.
Slectionnez l'lment dont vous avez besoin dans le menu et suivez les instructions affiches
sur l'cran.
Si vous souhaitez que la balise de service Oracle Solaris Cluster reflte le nouveau nom du
cluster, supprimez la balise Oracle Solaris Cluster existante et redmarrez le cluster. Pour
supprimer l'instance de la balise de service Oracle Solaris Cluster, terminez les sous-tapes
suivantes sur tous les nuds du cluster :
a. Rpertoriez toutes les balises de service.
phys-schost# stclient -x
Exemple 91
261
Vous pouvez galement lister les ID des nuds d'un cluster de zones. Le nud du cluster de
zones possde le mme ID que celui du cluster global sur lequel il est excut.
phys-schost# zlogin sczone clnode -v | grep Node
Exemple 92
| grep Node
phys-schost1
1
phys-schost2
2
phys-schost3
3
262
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Exemple 93
Slectionnez l'lment dont vous avez besoin dans le menu et suivez les instructions affiches
sur l'cran.
Exemple 94
Exemple 95
263
Exemple 96
Exemple 97
Lorsque vous utilisez une authentification DES, vous devez galement configurer toutes les cls
de chiffrement ncessaires, avant qu'un nud ne puisse rejoindre le cluster. Pour plus
d'informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).
rgler l'heure du cluster, lorsque ce dernier est excut. Vous ne devez pas rgler l'heure de
manire interactive l'aide de la commande date(1), rdate(1M), xntpd(1M) ou svcadm(1M)
ou dans un script cron(1M).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
264
Assurez-vous que le nud affiche l'invite OK si vous utilisez un systme SPARC et le message
Press any key to continue du menu GRUB, si vous utilisez un systme x86.
ok boot -x
# shutdown -g -y -i0
Press any key to continue
a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
265
d. Appuyez sur la touche Entre pour accepter la modification et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-
Positionnez-vous sur un nud unique et rglez la date et l'heure l'aide de la commande date.
phys-schost# date HHMM.SS
Sur les autres machines, utilisez la commande rdate(1M) pour synchroniser l'heure sur celle du
nud unique.
phys-schost# rdate hostname
266
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
tc_name
tc_port_number
267
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Dsactivez, sur tous les nuds du cluster, toute ressource de service de donnes ou toute
application pouvant mettre en cache des noms d'hte privs.
phys-schost# clresource disable resource[,...]
Si votre fichier de configuration NTP se rfre au nom d'hte priv modifier, dsactivez le
dmon NTP sur chaque nud du cluster.
Utilisez la commande svcadm pour arrter le dmon NTP (Network Time Protocol). Pour plus
d'informations concernant le dmon NTP, reportez-vous la page de manuel svcadm(1M).
phys-schost# svcadm disable ntp
Excutez l'utilitaire clsetup(1CL) pour modifier le nom d'hte priv du nud traiter.
Excutez l'utilitaire depuis l'un des nuds du cluster.
Remarque Lorsque vous slectionnez un nouveau nom d'hte priv, assurez-vous que ce
dernier ne fait pas doublon sur le nud du cluster.
Saisissez le numro qui correspond l'option permettant de modifier un nom d'hte priv.
Rpondez aux questions, lorsque vous y tes invit. Vous tes invit saisir le nom du nud
dont vous modifiez le nom d'hte priv (clusternode< nodeid> -priv), ainsi que le nouveau
nom d'hte priv.
268
Si vous avez modifi un nom d'hte priv dans votre fichier de configuration NTP, veuillez
mettre jour ce dernier (ntp.conf ou ntp.conf.cluster ) sur chaque nud.
a. Utilisez l'outil d'dition de votre choix.
Si vous effectuez cette tape lors de l'installation, n'oubliez pas de supprimer les nuds
configurs. Le modle pr-configur par dfaut contient 16 nuds. En rgle gnrale, le
fichier ntp.conf.cluster est le mme sur chaque nud du cluster.
b. Assurez-vous que vous pouvez excuter une requte ping pour le nouveau nom d'hte priv
sur tous les nuds du cluster.
c. Redmarrez le dmon NTP.
Effectuez cette tape sur chaque nud du cluster.
Utilisez la commande svcadm pour redmarrer le dmon NTP.
# svcadm enable ntp
Activez toutes les ressources du service de donnes et les autres applications qui ont t
dsactives, lors de l'tape 1.
phys-schost# clresource enable resource[,...]
as necessary.]
clusternode1-priv
clusternode2-priv
clusternode3-priv
269
phys-schost-1# vi /etc/inet/ntp.conf
...
peer clusternode1-priv
peer clusternode4-priv
peer clusternode3-priv
phys-schost-1# ping clusternode4-priv
phys-schost-1# /etc/init.d/xntpd start
[Enable all applications and data services disabled at the beginning of the procedure.]
Excutez l'utilitaire clsetup(1CL) pour ajouter un nom d'hte priv la zone traiter.
phys-schost# clsetup
Saisissez le numro qui correspond l'option des noms d'hte privs et appuyez sur la touche
Entre.
Saisissez le numro qui correspond l'option permettant d'ajouter un nom d'hte priv une
zone et appuyez sur la touche Entre.
Rpondez aux questions, lorsque vous y tes invit. Il n'existe aucune valeur par dfaut pour le
nom d'hte priv d'un nud non votant du cluster global. Vous devrez spcifier un nom d'hte.
270
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Dsactivez, sur tous les nuds du cluster global, toute ressource de service de donnes ou toute
application pouvant mettre en cache les noms d'hte priv.
phys-schost# clresource disable resource1, resource2
Excutez l'utilitaire clsetup(1CL) pour modifier le nom d'hte priv du nud non votant du
cluster global traiter.
phys-schost# clsetup
Vous devez effectuer cette tape uniquement depuis l'un des nuds du cluster.
Remarque Lorsque vous slectionnez un nouveau nom d'hte priv, assurez-vous que ce
dernier ne fait pas doublon dans le cluster.
3
Saisissez le numro qui correspond l'option des noms d'hte privs et appuyez sur la touche
Entre.
Saisissez le numro qui correspond l'option permettant d'ajouter un nom d'hte priv une
zone et appuyez sur la touche Entre.
Il n'existe aucune valeur par dfaut pour un nud non votant d'un nom d'hte priv du cluster
global. Vous devez spcifier un nom d'hte.
Saisissez le numro qui correspond l'option permettant de modifier le nom d'hte priv d'une
zone.
Rpondez aux questions, lorsque vous y tes invit. Vous tes invit saisir le nom du nud
non votant dont vous modifiez le nom d'hte priv (clusternode< nodeid> -priv), ainsi que le
nouveau nom d'hte priv.
Chapitre 9 Administration du cluster
271
Activez toutes les ressources du service de donnes et les autres applications qui ont t
dsactives, lors de l'tape 1.
Excutez l'utilitaire clsetup(1CL) pour supprimer le nom d'hte priv de la zone traiter.
Saisissez le numro qui correspond l'option du nom d'hte priv d'une zone.
Saisissez le numro qui correspond l'option permettant de supprimer le nom d'hte priv
d'une zone.
272
Sur le cluster global, connectez-vous en tant que superutilisateur ou prenez un rle dot de
l'autorisation RBAC solaris.cluster.modify.
Si vous renommez un nud d'un cluster Oracle Solaris Cluster Geographic Edition partenaire
d'une configuration Oracle Solaris, vous devez effectuer des oprations supplmentaires. Si le
cluster dans lequel vous effectuez la procdure de renommage constitue le cluster principal du
groupe de protection, et si vous souhaitez que l'application soit incluse dans le groupe de
protection en ligne, vous pouvez faire basculer le groupe de protection sur le cluster secondaire
pendant que vous renommez le nud. Pour de plus amples informations sur les clusters et
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A
Renommezlesnoms d'hte Oracle Solaris comme dcrit dans la section How to Change a
Systems Host Namedu System Administration Guide: Advanced Administration, sans
redmarrer la fin de la procdure. Au lieu de redmarrer votre systme, arrtez le cluster.
En mode non cluster sur le nud sur lequel vous avez renomm le nom d'hte Oracle Solaris,
renommez le nud et excutez la commande cmd sur chaque hte renomm. Renommez un
seul nud la fois.
# clnode rename -n newnodename oldnodename
Mettez jour toutes les rfrences au nom d'hte prcdent dans les applications excutes sur
le cluster.
Assurez-vous que le nud a bien t renomm en vrifiant les messages de commande et les
fichiers journaux.
10
Si vous renommez un nud inclus dans un nud de cluster Geographic Edition et si le cluster
partenaire du cluster contenant le nud renomm contient toujours des rfrences au nom de
nud prcdent, l'tat de la synchronisation du groupe de protection affichera une erreur. Vous
devez mettre jour le groupe de protection partir d'un nud du cluster partenaire qui
contient le nud renomm l'aide de la commande geopg update <pg>. Aprs cette tape,
excutez la commande geopg start -e global <pg>. Vous pourrez ensuite rebasculer le
groupe de protection sur le cluster contenant le nud renomm.
11
Vous pouvez dcider de modifier la proprit hostnamelist des ressources de noms d'hte
logiques. Reportez-vous la section Modification des noms d'hte logiques l'aide des
ressources de noms d'hte logiques Oracle Solaris Cluster existantes la page 274 pour obtenir
des instructions sur cette tape facultative.
273
Sur le cluster global, connectez-vous en tant que superutilisateur ou prenez un rle dot de
l'autorisation RBAC solaris.cluster.modify.
Si vous le souhaitez, vous pouvez modifier les noms d'hte logiques utiliss par les ressources
de noms d'hte logiques Oracle Solaris Cluster existantes.
Les tapes ci-dessous dcrivent comment configurer la ressource apache-lh-res de manire
ce qu'elle fonctionne avec le nouveau nom d'hte logique. Cette procdure doit tre excute en
mode cluster.
a. En mode cluster, accdez aux groupes de ressources Apache qui contiennent les noms
d'hte logiques hors ligne.
# clrg offline apache-rg
d. Modifiez les rfrences de l'application pour les entres prcdentes dans la proprit
hostnamelist afin de rfrencer les nouvelles entres.
e. Activez les nouvelles ressources Apache.
# clrs enable apache-lh-res
274
Utilisez la commande cluster shutdown uniquement lorsque vous arrtez l'ensemble d'un
cluster.
Lorsqu'un nud est arrt et mis en mode de maintenance, la valeur 1 est dduite du nombre de
votes de tous les priphriques de quorum dont les ports sont configurs sur ce nud. Lors de
l'arrt du mode de maintenance de ce dernier et sa remise en ligne, la valeur 1 est ajoute au
nud et aux nombres de votes de priphrique de quorum.
Utilisez la commande de dsactivation clquorum(1CL) pour mettre le nud du cluster en mode
de maintenance.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
275
node
5
Assurez-vous que le nud du cluster global est dsormais mis en mode de maintenance.
phys-schost# clquorum status node
Le statut (Status) du nud mis en mode de maintenance doit tre hors ligne (Offline) et gal
0 (zro) pour les votes de quorum de type Present et Possible.
Exemple 99
Voir aussi
Present
------0
1
1
Possible
-------0
1
1
Status
-----Offline
Online
Online
276
ports sont configurs sur le nud, seront galement rduits. Lors de la rinitialisation du
nombre de votes de quorum et de l'arrt du mode de maintenance d'un nud, la valeur 1 est
ajoute au nombre de votes de priphrique de quorum et au nombre de votes de quorum du
nud.
Suivez cette procdure chaque fois qu'un nud du cluster global est mis en mode de
maintenance et que vous souhaitez modifier cet tat.
Attention Si vous n'avez pas spcifi l'option globaldev ou node, le nombre de quorums est
rinitialis sur l'ensemble du cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Selon le nombre de nuds de la configuration du cluster global, effectuez l'une des tapes
suivantes :
Si le nud dont le mode de maintenance est arrt, comprend des priphriques de quorum,
rinitialisez le nombre de quorums du cluster depuis un autre nud.
Vous pouvez rinitialiser le nombre de quorums d'un nud autre que le nud mis en mode de
maintenance, avant de rinitialiser ce dernier. Dans le cas contraire, le nud peut se retrouver
bloqu en attendant le quorum.
phys-schost# clquorum reset
reset
Le statut du nud dont le mode de maintenance est arrt doit tre en ligne (Online) et reflter
le nombre de votes appropri pour les votes de quorum de type Present et Possible.
277
Exemple 910
ok boot
Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
phys-schost-1# clquorum status
--- Quorum Votes Summary --Needed
-----4
Present
------6
Possible
-------6
Present
------1
1
Possible
-------1
1
Status
-----Online
Online
278
Present
------1
0
1
Possible
-------1
1
1
Status
-----Online
Online
Online
Une valeur de limite dpassable (vous pouvez dpasser temporairement cette valeur).
Une valeur de limite fixe (ces limites de charge ne peuvent jamais tre dpasses et sont
strictement appliques).
Vous pouvez dfinir les limites dpassable et fixe dans une seule commande. Si une des limites
n'est pas explicitement dfinie, la valeur par dfaut est utilise. Les limites dpassable et fixe de
chaque nud sont cres et modifies avec les commandes clnode create-loadlimit, clnode
set-loadlimit, et clnode delete-loadlimit. Pour plus dinformations, reportez-vous la
page de manuel clnode(1CL).
Vous pouvez dfinir un groupe de ressources sur une priorit suprieure, pour qu'il soit moins
susceptible d'tre dplac d'un nud spcifique. Vous pouvez galement dfinir une proprit
preemption_mode pour dterminer si un groupe de ressources peut tre devanc par un groupe
de ressources priorit suprieure en cas de surcharge de nud. Une proprit
concentrate_load permet aussi de concentrer la charge du groupe de ressources sur le moins
de nuds possible. La valeur par dfaut de la proprit concentrate_load est FALSE.
Remarque Vous pouvez configurer des limites de charge sur les nuds d'un cluster global ou
d'un cluster de zones. Vous pouvez utiliser la ligne de commande, l'utilitaire clsetup ou
l'interface du gestionnaire Oracle Solaris Cluster pour configurer des limites de charge. La
procdure suivante montre comment configurer des limites de charge l'aide de la ligne de
commande.
279
Crez et dfinissez une limite de charge pour les nuds avec lesquels vous souhaitez utiliser
l'quilibrage de charge.
# clnode create-loadlimit -p limitname=mem_load -Z zc1 -p
softlimit=11 -p hardlimit=20 node1 node2 node3
Dans cet exemple, le nom du cluster de zones est zc1. L'exemple de proprit est appel
mem_load et possde une limite dpassable de 11 et une limite fixe de 20. Les limites dpassable
et fixe sont des arguments facultatifs, dfinis par dfaut sur une valeur illimite. Pour plus
dinformations, reportez-vous la page de manuel clnode(1CL).
3
Dans cet exemple, les facteurs de charge sont dfinis sur les deux groupes de ressources, rg1 et
rg2. Les paramtres des facteurs de charge correspondent aux limites de charge dfinies pour
ces nuds. Vous pouvez galement effectuer cette tape au cours de la cration du groupe de
ressources avec la commande clresourceroup create. Pour plus d'informations,
reportez-vous la page de manuel clresourcegroup(1CL).
4
Cette commande permet de dplacer des groupes de ressources hors de leur nud matre
actuel, vers d'autres nuds, afin d'obtenir une rpartition uniforme de la charge.
5
Si vous le souhaitez, vous pouvez accorder une priorit suprieure certains groupes de
ressources.
# clresourcegroup set -p priority=600 rg1
La priorit par dfaut est 500. Lors de l'assignement des nuds, les groupes de ressources avec
des valeurs de priorit suprieure prvalent sur les groupes de ressources avec une priorit
infrieure.
6
280
Si vous le souhaitez, vous pouvez spcifier une affinit entre les groupes de ressources.
Une affinit positive ou ngative forte l'emporte sur la rpartition de la charge. Une forte affinit
doit toujours tre respecte, tout comme une limite de charge fixe. Si vous dfinissez la fois des
affinits fortes et des limites de charge fixes, certains groupes de ressources devront rester hors
ligne s'ils ne rpondent pas ces deux contraintes.
L'exemple suivant dcrit une forte affinit positive entre le groupe de ressources rg1 du cluster
de zones zc1 et le groupe de ressources rg2 du cluster de zones zc2.
# clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1
Vrifiez le statut de tous les nuds de cluster global et de zones dans le cluster.
# clnode status -Z all -v
La sortie inclut touts les paramtres de limite de charge dfinis sur le nud ou sur ses zones non
globales.
Tche
Instructions
281
TABLEAU 92
(Suite)
Tche
Instructions
Supprimez tous les groupes de ressources et les ressources qui leur sont associes du cluster de
zones.
phys-schost# clresourcegroup delete -F -Z zoneclustername +
Remarque Cette tape doit tre effectue depuis un nud du cluster global. Pour effectuer cette
tape plutt depuis un nud du cluster de zones, connectez-vous sur le nud du cluster de
zones et n'indiquez pas l'option -Zzonecluster dans la commande.
282
Exemple 911
UFS
Vxfs
Systme de fichiers partag autonome QFS
ZFS (fichiers exports en tant que jeu de donnes)
Les clusters de zones prennent en charge les montages en boucle des fichiers suivants :
UFS
Vxfs
Systme de fichiers partag autonome QFS
Systme de fichiers partag QFS
PxFS sur UFS
PxFS sur Vxfs
283
b. Identifiez et supprimez les ressources Oracle Solaris Cluster de type SUNW.qfs qui sont
configures dans le cluster global du systme de fichiers supprimer, le cas chant.
phys-schost# clresource delete -F fs_global_resources
Utilisez l'option -F avec prcaution : elle force la suppression de toutes les ressources
spcifies, mme si vous ne les avez pas dsactives au pralable. Toutes les ressources
spcifies sont supprimes des paramtres de dpendance des autres ressources. Cela peut
provoquer un arrt du service dans le cluster. Les ressources dpendant d'autres ressources
qui n'ont pas t supprime, peuvent tre conserves en tant que non valides ou erreurs.
Pour plus d'informations, reportez-vous la page de manuel clresource(1CL).
Astuce Si le groupe de la ressource supprime ne contient par la suite plus aucune ressource,
Exemple 912
284
dir:
special:
raw:
type:
options:
...
phys-schost#
phys-schost#
clzc:sczone>
clzc:sczone>
phys-schost#
Exemple 913
/local/ufs-1
/dev/md/ds1/dsk/d0
/dev/md/ds1/rdsk/d0
ufs
[logging]
clresource delete -F -Z sczone hasp-rs
clzonecluster configure sczone
remove fs dir=/local/ufs-1
commit
clzonecluster show -v sczone
285
Exemple 914
Exemple 915
ls -l /dev/md/apachedg
root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3
clzonecluster configure sczone
remove device match=/dev/md/apachedg/*dsk/*
remove device match=/dev/md/shared/3/*dsk/*
commit
end
clzonecluster reboot sczone
clzonecluster show -v sczone
286
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Assurez-vous d'avoir termin correctement toutes les tches prrequises de la liste pour
pouvoir supprimer un nud du cluster.
Reportez-vous au Tableau 82.
Remarque Assurez-vous d'avoir supprim le nud de la configuration du cluster l'aide de la
commande clnode remove, avant de continuer cette procdure.
Connectez-vous en tant que superutilisateur sur un membre actif du cluster global autre que le
nud du cluster global dsinstaller. Suivez cette procdure depuis un nud du cluster global.
Chapitre 9 Administration du cluster
287
Ajoutez le nud dsinstaller, depuis le membre actif du cluster, la liste d'authentification des
nuds du cluster.
phys-schost# claccess allow -h hostname
-h
Vous pouvez galement utiliser l'utilitaire clsetup(1CL). Pour plus d'informations concernant
les procdures, reportez-vous la section Ajout d'un nud la liste des nuds autoriss
la page 244
4
Si votre nud contient une partition ddie l'espace de noms des priphriques globaux,
rinitialisez le nud du cluster global en mode non cluster.
288
Dans le fichier /etc/vfstab, supprimez toutes les entres du systme de fichiers mont,
l'exception des montages globaux /global/.devices.
Si vous voulez rinstaller Oracle Solaris Cluster sur ce nud, supprimez l'entre Oracle Solaris
Cluster du registre du produit Sun Java Enterprise System (Java ES).
Si le registre du produit Java ES contient un enregistrement mentionnant l'installation de
Oracle Solaris Cluster, le programme d'installation de Java ES affiche en gris le composant
Oracle Solaris Cluster et ne vous permet pas de le rinstaller.
a. Dmarrez le programme de dsinstallation de Java ES.
Excutez la commande suivante, o l'option ver reprsente la version de la distribution Java
ES depuis laquelle vous avez install Oracle Solaris Cluster.
# /var/sadm/prod/SUNWentsysver/uninstall
Si vous ne voulez pas rinstaller Oracle Solaris Cluster sur ce cluster, dconnectez les cbles et le
commutateur de transport des autres priphriques du cluster, si ces derniers sont connects.
a. Si le nud dsinstall est connect un priphrique de stockage utilisant une interface
SCSI parallle, installez une terminaison SCSI pour ouvrir un connecteur SCSI du
priphrique de stockage, aprs avoir dconnect les cbles de transport.
Si le nud dsinstall est connect un priphrique de stockage utilisant des interfaces
Fibre Channel, vous ne devez installer aucune terminaison.
b. Suivez la documentation fournie avec votre adaptateur d'hte et votre serveur pour
connatre les procdures de dconnexion.
Astuce Si vous utilisez un priphrique d'interface de fichier de boucle de rappel (LOFI,
Loopback File Interface), le programme de dsinstallation de Java ES supprime
automatiquement le fichier LOFI se nommant /.globaldevices. Pour plus d'informations
concernant la migration des espaces de noms des priphriques globaux vers un fichier LOFI,
reportez-vous la section Migration de l'espace de noms des priphriques globaux
la page 128.
289
Pour corriger cette erreur, retournez la section Dsinstallation de Oracle Solaris Cluster d'un
nud du cluster la page 287 et rptez la procdure. Assurez-vous d'avoir termin l'tape 7
de cette procdure avant d'excuter nouveau la commande clnode remove.
290
291
La cration, le paramtrage et la gestion d'une base MIB d'vnements SNMP d'Oracle Solaris
Cluster peut inclure les tches suivantes :
TABLEAU 93 Liste des tches : cration, paramtrage et gestion de la base MIB d'vnements SNMP de
Oracle Solaris Cluster
Tche
Instructions
Activez une base MIB d'vnements SNMP. Activation d'une base MIB d'vnements SNMP la page 292
Dsactivez une base MIB d'vnements
SNMP.
292
[-n node]
MIB
Spcifie le nom de la base MIB activer. Dans ce cas, le nom de la base MIB
doit tre event.
-n node
MIB
-n node
Spcifie l'emplacement du nud sur lequel se trouve la base MIB d'vnements modifier.
Vous pouvez spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette option, le
nud actif sera utilis par dfaut.
293
-p version=value
Spcifie la version du protocole SNMP utiliser avec les bases MIB. Vous devez spcifier la
valeur comme suit :
version=SNMPv2
version=snmpv2
version=2
version=SNMPv3
version=snmpv3
version=3
MIB
Spcifie le nom de la ou des bases MIB sur lesquelles la sous-commande doit tre excute.
Dans ce cas, vous devez spcifier event. Si vous ne spcifiez pas cet oprande, la
sous-commande utilise par dfaut le signe Plus (+), ce qui signifie toutes les bases MIB. Si
vous utilisez l'oprande MIB, spcifiez la base MIB, dans une liste spare par des espaces,
aprs toutes les options de la ligne de commande.
nud
Cette procdure explique comment ajouter un hte SNMP sur un nud faisant partie de la liste
des htes recevant des notifications de droutement de la base MIB.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
-c SNMPcommunity
Spcifie le nom de la communaut SNMP utilis avec le nom d'hte.
Vous devez spcifier le nom de la communaut SNMP SNMPcommunity, lorsque vous
ajoutez un hte une autre communaut que la communaut public. Si vous utilisez la
commande add sans l'option -e, la sous-commande utilise l'option public comme nom de
communaut par dfaut.
Si le nom de communaut spcifi n'existe pas, cette commande le cre.
294
-n node
Spcifie le nom du nud de l'hte SNMP donnant accs aux bases MIB d'vnements SNMP
dans le cluster. Vous pouvez spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette
option, le nud actif sera utilis par dfaut.
host
Spcifie le nom, l'adresse IP ou l'adresse IPv6 de l'hte ayant accs aux bases MIB
d'vnements SNMP dans le cluster.
nud
Cette procdure explique comment supprimer un hte SNMP sur un nud faisant partie de la
liste des htes recevant des notifications de droutement de la base MIB.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Supprimez l'hte de la liste des htes SNMP d'une communaut se trouvant sur le nud
spcifi.
phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host
remove
Supprime l'hte SNMP du nud spcifi.
-c SNMPcommunity
Spcifie le nom de la communaut SNMP dont l'hte SNMP a t supprim.
-n node
Spcifie le nom du nud dont l'hte SNMP a t supprim de la configuration. Vous pouvez
spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette option, le nud actif sera
utilis par dfaut.
host
Spcifie le nom, l'adresse IP ou l'adresse IPv6 de l'hte ayant t supprim de la
configuration.
Pour supprimer tous les htes de la communaut SNMP spcifie, utilisez le signe Plus (+)
sur l'option host, en y ajoutant l'option -c. Pour supprimer tous les htes, utilisez le signe
Plus (+) sur l'option host.
Chapitre 9 Administration du cluster
295
-n node
-a authentication
-f password
user
296
; (point-virgule)
: (deux points)
\ (barre oblique inverse)
\n (nouvelle ligne)
Dpannage
-n node
user
Dpannage
Cette section contient une procdure de dpannage pouvant tre utilise pour effectuer des
tests.
297
Dpannage
Mettez hors ligne toute ressource ou tout groupe de ressources contenant des ressources
HAStorage ou HAStoragePlus et des priphriques ou systmes de fichiers affects par
l'ensemble de mtadonnes mettre en suite en mode non cluster.
phys-schost# clresourcegroup offline resourcegroupname
Assurez-vous que le processus d'initialisation du nud passif est termin avant de continuer.
phys-schost# svcs -x
298
Dpannage
10
Vrifiez l'existence de rservations SCSI3 sur les disques des ensembles de mtadonnes.
Excutez la commande suivante sur tous les disques des ensembles de mtadonnes :
phys-schost# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
11
12
13
14
Dmarrez l'application et effectuez le test. Une fois que le test est termin, arrtez l'application.
15
16
17
299
Dpannage
des commandes prtvtoc et metastat), puis recrer l'ensemble de disques et ses composants.
Reportez-vous la section Recration de la configuration du logiciel Solaris Volume Manager
la page 301.
1
300
Dpannage
L'option -P est gnralement plus utile que l'option -C. L'option -C peut gnrer des erreurs lors
de la recration de l'ensemble de disques, car le logiciel Oracle Solaris Cluster continue de
reconnatre l'ensemble.
a. Si vous avez utilis l'option -C avec la commande metaset, commencez par crer l'ensemble
de disques pour vrifier qu'aucun problme ne se produit.
b. Si vous dtectez un problme, supprimez les informations des fichiers de configuration dcs
l'aide de l'outil de diagnostic (SUNWscdtk).
Si les options de purge chouent, vrifiez que vous avez install les derniers patchs de noyau et
mtapriphriques, et contactez l'assistance d'Oracle Solaris Cluster.
S'il s'agit d'un ensemble de disques multipropritaire, excutez la commande suivante pour
crer l'ensemble de disques.
/usr/sbin/metaset -s setname -aM -h nodename1 nodename2
2
Sur le mme hte que celui o l'ensemble a t cr, ajoutez des htes mdiateurs si ncessaire
(deux nuds uniquement).
/usr/sbin/metaset -s setname -a -m nodename1 nodename2
301
Dpannage
d'ignorer cette tape. Toutefois, si vous recrez un ensemble pour le rcuprer, vous devez
formater les disques en fonction d'une configuration enregistre dans le fichier
/etc/lvm/diskname.vtoc. Par exemple :
# /usr/sbin/fmthard -s /etc/lvm/d4.vtoc /dev/global/rdsk/d4s2
# /usr/sbin/fmthard -s /etc/lvm/d8.vtoc /dev/global/rdsk/d8s2
Si la commande fsck n'affiche que quelques erreurs, lies au superbloc par exemple, le
priphrique a probablement t reconstruit correctement. Vous pouvez ensuite excuter la
commande fsck sans l'option -n. Si plusieurs erreurs se produisent, vrifiez que vous avez
reconstruit le mtapriphrique correctement. Si c'est le cas, vrifiez les erreurs fsck pour
dterminer si le systme de fichiers peut tre rcupr. Si c'est impossible, restaurez les donnes
partir d'une sauvegarde.
8
Concatnez tous les autres ensembles de mtadonnes sur tous les nuds de cluster pour le
fichier /etc/lvm/md.tab, puis concatnez l'ensemble de disques local.
# /usr/sbin/metastat -p >> /etc/lvm/md.tab
302
10
C H A P I T R E
1 0
Si vous souhaitez contrler l'utilisation du CPU, configurez l'utilitaire de contrle du CPU. Pour
plus d'informations sur la configuration de l'utilitaire de contrle du CPU, reportez-vous la
page de manuel rg_properties(5). Ce chapitre contient des informations concernant les sujets
suivants :
TABLEAU 101
Description
Instructions
304
Contrle de l'utilisation du CPU sur un nud votant d'un cluster global la page 305
Contrle de l'utilisation du CPU dans un nud non votant du cluster global l'aide de
l'ensemble de processeurs par dfaut la page 307
Contrle de l'utilisation du CPU dans un nud non votant du cluster global l'aide d'un
ensemble de processeurs ddi la page 310
Cre un projet se nommant SCSLM_resourcegroup_name dans le nud votant, si cela n'a pas
dj t fait. Il s'agit d'un projet spcifique au groupe de ressources auquel le nombre de
partages du CPU spcifi a t assign (project.cpu-shares).
305
L'ordonnanceur de partage quitable sera considr comme ordonnanceur par dfaut, lors de la
prochaine initialisation. Pour que cette configuration entre immdiatement en vigueur, utilisez
la commande priocntl.
# priocntl -s -C FSS
Pour chaque nud devant utiliser la fonction de contrle du CPU, configurez le nombre de
partages des nuds votants du cluster global et le nombre minimal de CPU disponibles dans
l'ensemble de processeurs par dfaut.
En dfinissant ces paramtres, vous empchez les processus excuts sur les nuds votants
d'entrer en comptition, lors de l'utilisation des ressources du CPU, avec les processus excuts
sur des nuds non votants. Si vous n'assignez aucune valeur aux proprits globalzoneshares
et defaultpsetmin, les valeurs par dfaut seront appliques.
# clnode set [-p globalzoneshares=integer] \
[-p defaultpsetmin=integer] \
node
-p defaultpsetmin= defaultpsetmininteger
-p globalzoneshares= integer
node
En dfinissant ces proprits, vous dfinissez les proprits du nud votant. Si vous ne
dfinissez pas ces proprits, vous ne pouvez pas utiliser la proprit RG_SLM_PSET_TYPE dans
des nuds non votants.
3
La commande clnode affiche l'ensemble des proprits et des valeurs dfinies pour les
proprits du nud spcifi. Si vous n'avez dfini aucune proprit de contrle du CPU l'aide
de la commande clnode, les valeurs par dfaut seront appliques.
306
-p RG_SLM_TYPE=automated
-p RG_SLM_CPU_SHARES= value
resource_group_name
Dans cette procdure, vous ne devez pas dfinir la proprit RG_SLM_PSET_TYPE. Dans le nud
votant, la valeur de cette proprit est gale default.
Cette tape cre un groupe de ressources. Vous pouvez galement utiliser la commande
clresourcegroup set pour modifier un groupe de ressources existant.
5
resource_group_name
307
L'ordonnanceur de partage quitable sera considr comme ordonnanceur par dfaut, lors de la
prochaine initialisation. Pour que cette configuration entre immdiatement en vigueur, utilisez
la commande priocntl.
# priocntl -s -C FSS
Pour chaque nud devant utiliser la fonction de contrle du CPU, configurez le nombre de
partages des nuds votants du cluster global et le nombre minimal de CPU disponibles dans
l'ensemble de processeurs par dfaut.
En dfinissant ces paramtres, vous empchez les processus excuts sur les nuds votants
d'entrer en comptition, lors de l'utilisation des ressources du CPU, avec les processus excuts
sur des nuds non votants du cluster global. Si vous n'assignez aucune valeur aux proprits
globalzoneshares et defaultpsetmin, les valeurs par dfaut seront appliques.
# clnode set [-p globalzoneshares=integer] \
[-p defaultpsetmin=integer] \
node
-p globalzoneshares= integer
308
-p defaultpsetmin= defaultpsetmininteger
node
La commande clnode affiche l'ensemble des proprits et des valeurs dfinies pour les
proprits du nud spcifi. Si vous n'avez dfini aucune proprit de contrle du CPU l'aide
de la commande clnode, les valeurs par dfaut seront appliques.
4
-p RG_SLM_TYPE=automated
-p RG_SLM_CPU_SHARES= value
resource_group_name
Cette tape cre un groupe de ressources. Vous pouvez galement utiliser la commande
clresourcegroup set pour modifier un groupe de ressources existant.
Vous ne pouvez pas dfinir la proprit RG_SLM_TYPE sur automated dans un nud non votant,
si un pool autre que le pool par dfaut se trouve dans la configuration de la zone ou si la zone est
lie de manire dynamique un pool autre que le pool par dfaut. Pour plus d'informations
concernant la configuration de zone et la liaison aux pools, reportez-vous respectivement aux
pages de manuel zonecfg(1M) et poolbind(1M). La configuration de la zone doit tre affiche
comme suit :
# zonecfg -z zone_name info pool
309
pour dmarrer dans un nud non votant, tout en faisant en sorte que la proprit GLOBAL_ZONE
renvoie la valeur TRUE et soit dmarre sur le nud votant. Mme si vous dfinissez la proprit
RG_SLM_TYPE sur automated, cette ressource n'utilisera pas la configuration des partages de
CPU et de l'ensemble de processeurs. La proprit RG_SLM_TYPE sera traite en tant que
manuelle par les groupes de ressources.
Dans cette procdure, vous ne devez pas dfinir la proprit RG_SLM_PSET_TYPE. Oracle Solaris
Cluster utilise l'ensemble de processeurs par dfaut.
5
resource_group_name
Si vous dfinissez la proprit RG_SLM_PSET_TYPE sur default, Oracle Solaris Cluster cre un
pool SCSLM_pool_zone_name mais ne cre aucun ensemble de processeurs par dfaut. Dans ce
cas, le pool SCSLM_pool_zone_name est associ l'ensemble de processeurs par dfaut.
Si la configuration des groupes de ressources en ligne ne prend plus en charge la fonction de
contrle du CPU dans un nud non votant, la valeur du partage de CPU du nud non votant
prend la valeur de la proprit zone.cpu-shares dans la configuration de la zone. La valeur par
dfaut de ce paramtre est gale 1. Pour plus d'informations concernant la configuration de
zone, reportez-vous la page de manuel zonecfg(1M).
Remarque Ne supprimez ou ne modifiez pas le projet SCSLM_resource_group_name. Vous
pouvez ajouter manuellement d'autres fonctions de contrle de ressource au projet, en
configurant par exemple la proprit project.max-lwps. Pour plus d'informations,
reportez-vous la page de manuel projmod(1M).
310
L'ordonnanceur de partage quitable sera considr comme ordonnanceur par dfaut, lors de la
prochaine initialisation. Pour que cette configuration entre immdiatement en vigueur, utilisez
la commande priocntl.
# priocntl -s -C FSS
Pour chaque nud devant utiliser la fonction de contrle du CPU, configurez le nombre de
partages des nuds votants du cluster global et le nombre minimal de CPU disponibles dans
l'ensemble de processeurs par dfaut.
En dfinissant ces paramtres, vous empchez les processus excuts sur les nuds votants
d'entrer en comptition, lors de l'utilisation des ressources du CPU, avec les processus excuts
sur des nuds non votants. Si vous n'assignez aucune valeur aux proprits globalzoneshares
et defaultpsetmin, les valeurs par dfaut seront appliques.
# clnode set [-p globalzoneshares=integer] \
[-p defaultpsetmin=integer] \
node
-p defaultpsetmin= defaultpsetmininteger
311
-p globalzoneshares= integer
node
La commande clnode affiche l'ensemble des proprits et des valeurs dfinies pour les
proprits du nud spcifi. Si vous n'avez dfini aucune proprit de contrle du CPU l'aide
de la commande clnode, les valeurs par dfaut seront appliques.
4
-p RG_SLM_TYPE=automated
-p RG_SLM_CPU_SHARES= value
-p RG_SLM_PSET_TYPE= value
-p RG_SLM_PSET_MIN= value
resource_group_name
Cette tape cre un groupe de ressources. Vous pouvez galement utiliser la commande
clresourcegroup set pour modifier un groupe de ressources existant.
Vous ne pouvez pas dfinir la proprit RG_SLM_TYPE sur automated dans un nud non votant,
si un pool autre que le pool par dfaut se trouve dans la configuration de la zone ou si la zone est
312
lie de manire dynamique un pool autre que le pool par dfaut. Pour plus d'informations
concernant la configuration de zone et la liaison aux pools, reportez-vous respectivement aux
pages de manuel zonecfg(1M) et poolbind(1M). La configuration de la zone doit tre affiche
comme suit :
# zonecfg -z zone_name info pool
Remarque Les ressources telles que HAStoragePlus ou LogicalHostname ont t configures
pour dmarrer dans un nud non votant, tout en faisant en sorte que la proprit GLOBAL_ZONE
renvoie la valeur TRUE et soit dmarre sur le nud votant. Mme si vous dfinissez la proprit
RG_SLM_TYPE sur automated, cette ressource n'utilisera pas la configuration des partages de
CPU et de l'ensemble de processeurs. La proprit RG_SLM_TYPE sera traite en tant que
manuelle par les groupes de ressources.
5
313
314
11
C H A P I T R E
1 1
Ce chapitre contient les procdures permettant d'ajouter et de supprimer les patchs suivants
d'une configuration Oracle Solaris Cluster.
chapitre sont toujours d'actualit, reportez-vous chaque fois au fichier README et au site Web
SunSolve.
Voici les diffrents scnarios de mise jour de l'installation sur tous les clusters :
Patch avec rinitialisation (nud)
Remarque Les protocoles de cluster sous-jacents ne sont pas modifis, lorsque vous installez un
patch.
Utilisez la commande patchadd pour installer un patch sur le cluster et patchrm pour le
supprimer, le cas chant.
316
Vrifiez les conditions requises par la mise niveau de vos units de stockage, afin de savoir
quels patchs vous devez installer.
Installez tous les patchs (requis ou recommands) avant d'excuter le cluster dans un
environnement de production.
Vrifiez les niveaux des microprogrammes matriels et installez toutes les mises jour
requises par le microprogramme, le cas chant.
Vous devez installer les mmes patchs sur tous les nuds considrs comme membres du
cluster.
Maintenez les patchs des sous-systmes du cluster jour. Ces patchs peuvent contenir, par
exemple, un microprogramme de priphrique de stockage, une fonction de gestion de
volumes ou de transport de cluster.
Vrifiez rgulirement les rapports des patchs (une fois par trimestre, par exemple) et
utilisez la suite de patchs recommande pour mettre jour une configuration Oracle Solaris
Cluster.
Testez les basculements, lorsque vous installez des mises jour importantes. Prvoyez
d'annuler l'installation du patch, si le cluster ne fonctionne pas correctement ou est
endommag.
Tche
Instructions
Supprimez un patch Oracle Solaris Cluster. Modification d'un patch Oracle Solaris Cluster la page 330
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
317
Avant d'installer le patch, vrifiez le site Web de Oracle Solaris Cluster afin de savoir s'il existe
des instructions de pr- ou de post-installation spcifiques concernant le logiciel.
Basculez l'ensemble des groupes de ressources, des groupes de priphriques et des ressources
du nud mettre jour vers d'autres membres du cluster.
# clnode evacuate -n node
evacuate
-n node
Arrtez le nud.
# shutdown -g0 [-y]
[-i0]
318
a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
c. Ajoutez l'option -sx la commande pour spcifier l'initialisation du systme en mode non
cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -sx
d. Appuyez sur la touche Entre pour accepter les modifications et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
319
patch-dir
patch-id
Remarque Vous devez toujours vous rfrer aux instructions contenues dans le rpertoire de
patchs. Ces dernires remplacent les instructions de ce chapitre.
8
10
11
Rptez les tches de l'tape 2 tape 10 sur tous les autres nuds du cluster.
12
node
320
zone
13
Le nom du nud non votant du cluster global (node) pouvant contrler le groupe de
ressources. Spcifiez la zone uniquement si vous avez renseign le nud non votant,
lors de la cration du groupe de ressources.
Exemple 111
dg-schost-1
SPARC : Type :
ok boot -sx
x86 : initialisez le nud en mode non cluster et utilisateur unique. Pour ce faire,
reportez-vous la procdure associe.
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
321
...
# reboot
...
# cldevicegroup switch -n phys-schost-1 dg-schost-1
# clresourcegroup switch -n phys-schost-1 schost-sa-1
# scversions
Upgrade commit is needed.
# scversions -c
Voir aussi
Si vous devez annuler un patch, reportez-vous la section Modification d'un patch Oracle
Solaris Cluster la page 330.
Avant d'installer le patch, vrifiez le site Web de Oracle Solaris Cluster afin de savoir s'il existe
des instructions de pr- ou de post-installation spcifiques concernant le logiciel.
Arrtez le cluster.
# cluster shutdown -y -g grace-period message
-y
-g grace-period
message
ok boot -sx
322
a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
c. Ajoutez l'option -sx la commande pour spcifier l'initialisation du systme en mode non
cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -sx
d. Appuyez sur la touche Entre pour accepter les modifications et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
323
patch-dir
patch-id
Remarque Vous devez toujours vous rfrer aux instructions contenues dans le rpertoire des
patchs. Ces dernires remplacent les instructions de ce chapitre.
6
Aprs avoir install le patch sur tous les nuds, rinitialisez les nuds dans le cluster.
Excutez la commande suivante sur chaque nud :
# reboot
324
Exemple 112
SPARC : Type :
ok boot -sx
x86 : initialisez chaque nud en mode non cluster et utilisateur unique. Pour ce faire,
reportez-vous aux procdures associes ces tapes.
...
# patchadd -M /var/tmp/patches 234567-05
(Apply patch to other cluster nodes)
...
# showrev -p | grep 234567-05
# reboot
# scversions
Upgrade commit is needed.
# scversions -c
Voir aussi
Si vous devez annuler un patch, reportez-vous la section Modification d'un patch Oracle
Solaris Cluster la page 330.
Avant d'installer le patch, vrifiez le page Web de Oracle Solaris Cluster afin de savoir s'il existe
des instructions de pr- ou de post-installation spcifiques concernant le logiciel.
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
325
patch-dir
patch-id
Rptez les tches de l'tape 2 tape 4 sur les autres nuds du cluster.
Exemple 113
Voir aussi
326
Si vous devez annuler un patch, reportez-vous la section Modification d'un patch Oracle
Solaris Cluster la page 330.
Assurez-vous que le priphrique de quorum n'est pas configur sur l'une des units logiques
(LUN) utilises en tant qu'emplacement de stockage partag faisant partie des ensembles de
disques contenant le chemin d'accs mentionn dans cette procdure.
a. Dterminez si le priphrique de quorum est utilis dans les ensembles de disques
contenant les chemins d'accs la zone et dterminez si le priphrique de quorum utilise
des rservations SCSI2 ou SCSI3.
# clquorum show
b. Si le priphrique de quorum fait partie de l'une des units logiques des ensembles de
disques, ajoutez en tant que priphrique de quorum, une nouvelle unit logique ne faisant
pas partie de l'ensemble de disques contenant le chemin d'accs la zone.
# clquorum add new-didname
d. Si les rservations SCSI2 de l'ancien priphrique de quorum sont utilises, purgez les
rservations SCSI2 de l'ancien quorum et assurez-vous qu'il ne reste aucune rservation de
ce type.
Pour savoir comment excuter les commandes pgre, dont vous avez besoin pour installer et
utiliser l'outil de diagnostic (SUNWscdtk) fourni par le support d'Oracle.
Remarque Si vous purgez par inadvertance les cls de rservation de votre priphrique de
quorum actif, vous devez le supprimer et l'ajouter nouveau, afin d'y placer nouveau les
cls de rservation.
2
Mettez hors ligne le ou les groupes de ressources contenant les ressources du conteneur Solaris
haute disponibilit.
# clresourcegroup offline resourcegroupname
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
327
Assurez-vous que l'application des mthodes de dmarrage en mode fibre unique (SMF,
Single Mode Fiber) est termine sur le nud passif avant de continuer.
# svcs -x
10
Assurez-vous d'avoir termin tous les processus de reconfiguration sur le nud actif.
# cluster status
11
Vrifiez la prsence de rservations SCSI-2 sur l'ensemble de disques et librez les cls. Suivez
ces instructions afin de vrifier la prsence de rservations SCSI-2 et librez-les.
Pour tous les disques se trouvant sur l'ensemble de disques, excutez la commande suivante :
/usr/cluster/lib/sc/scsi -c disfailfast -d /dev/did/rdsk/d#s2.
Lorsque vous terminez de librer les cls de rservation, ignorez l'tape 12 et passez l'tape 13.
12
328
14
Montez le ou les systmes de fichiers contenant le chemin d'accs la zone se trouvant sur le
nud passif.
# mount device mountpoint
15
16
Arrtez toutes les zones initialises possibles n'tant pas contrles par le service de donnes
Oracle Solaris Cluster du conteneur Solaris.
# zoneadm -z zonename halt
17
(Facultatif) Si vous installez plusieurs patchs, vous pouvez choisir d'initialiser toutes les zones
configures en mode utilisateur unique, afin d'amliorer les performances.
# zoneadm -z zonename boot -s
18
19
21
22
23
24
Arrtez toutes les zones initialises possibles n'tant pas contrles par le service de donnes
Oracle Solaris Cluster du conteneur Solaris.
# zoneadm -z zonename halt
25
(Facultatif) Si vous installez plusieurs patchs, vous pouvez choisir d'initialiser toutes les zones
configures en mode utilisateur unique, afin d'amliorer les performances.
# zoneadm -z zonename boot -s
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
329
26
27
28
29
30
31
Remarque Avant d'appliquer un patch Oracle Solaris Cluster, vrifiez le fichier README de ce
dernier.
330
Dmarrez le nud du cluster en mode non cluster. Pour plus d'informations concernant le
dmarrage d'un nud en mode non cluster, reportez-vous la section Initialisation d'un nud
en mode non cluster la page 79.
Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
331
332
12
C H A P I T R E
1 2
Tche
Instructions
Effectuez une sauvegarde en ligne pour les systmes de Sauvegarde en ligne pour les systmes mis en miroir
fichiers mis en miroir ou en plex.
(Solaris Volume Manager) la page 338
Sauvegarde en ligne pour les volumes (Veritas
Volume Manager) la page 341
Sauvegardez la configuration du cluster.
333
Recherchez dans la colonne des points de montage le nom du systme de fichiers dont vous
effectuez la sauvegarde.
Utilisez ce nom lorsque vous sauvegardez le systme de fichiers.
# more /etc/vfstab
Exemple 121
device
to fsck
/dev/rdsk/c1d0s2
/dev/rdsk/c1t6d0s0
/dev/rdsk/c1t6d0s3
-
/usr
/dev/fd
/proc
/
/cache
/tmp
ufs
fd
proc
swap
ufs
ufs
tmpfs
1
1
2
-
yes
no
no
no
no
yes
yes
334
Exemple 122
filesystem
Divisez la taille estime par la capacit de la bande pour obtenir le nombre de bandes
ncessaires.
node
3
Fermez le nud.
# shutdown -g0 -y -i0
335
ok boot -xs
a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
336
d. Appuyez sur la touche Entre pour accepter la modification et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-
n'est pas conserve, lors du prochain dmarrage du systme. La prochaine fois que vous
rinitialisez le nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -x la commande des paramtres d'initialisation du noyau.
5
b. Vrifiez qu'il n'existe aucun autre fichier de sauvegarde de secours ayant le mme nom et se
trouvant au mme emplacement.
# ls /backing-store-file
Par exemple :
# ufsdump 0ucf /dev/rmt/0 /dev/rfssnap/1
337
Exemple 123
338
-s setname
3
-p
5
Dverrouillez les systmes de fichiers et autorisez la poursuite des critures en faisant appel la
commande lockfs avec l'option -u.
# lockfs -u mountpoint
Sauvegardez le sous-miroir hors ligne sur une bande ou sur un autre support.
Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites
gnralement appel.
# ufsdump 0ucf dump-device submirror
Remarque Utilisez le nom du priphrique brut (/rdsk) pour le sous-miroir plutt que le nom
du priphrique en mode bloc (/dsk).
339
Exemple 124
Sauvegarde en ligne pour les systmes mis en miroir (Solaris Volume Manager)
Dans l'exemple suivant, le nud du cluster phys-schost-1 possde le metaset schost-1. La
procdure de sauvegarde est donc effectue partir de phys-schost-1. Le miroir
/dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.
[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host
Owner
phys-schost-1
Yes
...
[Lock the file system from writes:]
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
DUMP: Writing 63 Kilobyte records
DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
DUMP: Date of last level 0 dump: the epoch
DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
...
DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronize the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
Submirror 0: schost-0/d10
State: Okay
Submirror 1: schost-0/d20
State: Okay
Submirror 2: schost-0/d30
State: Resyncing
Resync in progress: 42% done
Pass: 1
340
Dterminez le nud dans lequel le groupe de disques est actuellement import en spcifiant
qu'il s'agit du nud principal pour le groupe de disques.
# cldevicegroup status
Lorsque l'instantan a t cr, l'tat Snapdone (Instantan effectu) s'affiche dans le champ
State (tat) du groupe de disques slectionn.
341
services de donnes. L'tape 6 et l'tape 8 ne sont pas requises lorsqu'aucun service de donnes
n'est en cours d'excution.
7
node
Nom du nud.
zone
Nom du nud non votant du cluster global (node) pouvant contrler le groupe de
ressources. Spcifiez la zone uniquement si vous avez spcifi un nud non votant
lorsque vous avez cr le groupe de ressources.
10
11
12
Effectuez une sauvegarde pour copier le volume bkup-vol sur une bande ou un autre support.
Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites
gnralement appel.
# ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
13
14
342
Exemple 125
PLOFFS STATE
-
dm
dm
dm
dm
dm
dm
0
0
0
0
LOG
ACTIVE
ACTIVE
ACTIVE
ACTIVE
-
schost-101
schost-102
schost-103
schost-104
schost-105
schost-106
c1t1d0s2
c1t2d0s2
c2t1d0s2
c2t2d0s2
c1t3d0s2
c2t3d0s2
17678493
17678493
8378640
17678493
17678493
17678493
Status
-----Offline
Online
v vol01
gen
ENABLED 204800
pl vol01-01
vol01
ENABLED 208331
sd schost-101-01 vol01-01 ENABLED 104139
sd schost-102-01 vol01-01 ENABLED 104139
pl vol01-02
vol01
ENABLED 208331
sd schost-103-01 vol01-02 ENABLED 103680
sd schost-104-01 vol01-02 ENABLED 104139
pl vol01-03
vol01
ENABLED LOGONLY
sd schost-103-02 vol01-03 ENABLED 5
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME
ASSOC
KSTATE
LENGTH
dg schost-1
schost-1 -
PLOFFS STATE
-
dm
dm
dm
dm
dm
dm
schost-101
schost-102
schost-103
schost-104
schost-105
schost-106
c1t1d0s2
c1t2d0s2
c2t1d0s2
c2t2d0s2
c1t3d0s2
c2t3d0s2
17678493
17678493
8378640
17678493
17678493
17678493
TUTIL0 PUTIL0
-
TUTIL0 PUTIL0
-
343
v vol01
gen
ENABLED 204800 ACTIVE
pl vol01-01
vol01
ENABLED 208331 ACTIVE
sd schost-101-01 vol01-01 ENABLED 104139 0
sd schost-102-01 vol01-01 ENABLED 104139 0
pl vol01-02
vol01
ENABLED 208331 ACTIVE
sd schost-103-01 vol01-02 ENABLED 103680 0
sd schost-104-01 vol01-02 ENABLED 104139 0
pl vol01-03
vol01
ENABLED LOGONLY ACTIVE
sd schost-103-02 vol01-03 ENABLED 5
LOG
pl vol01-04
vol01
ENABLED 208331 SNAPDONE
sd schost-105-01 vol01-04 ENABLED 104139 0
sd schost-106-01 vol01-04 ENABLED 104139 0
[Stop data services, if necessary:]
# clresourcegroup offline nfs-rg
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# clresourcegroup online -n phys-schost-1 nfs-rg
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME
ASSOC
KSTATE LENGTH PLOFFS STATE
dg schost-1
schost-1
-
TUTIL0 PUTIL0
-
dm schost-101
...
c1t1d0s2
17678493 -
v
pl
sd
sd
gen
bkup-vol
bkup-vol-01
bkup-vol-01
ENABLED
ENABLED
ENABLED
ENABLED
204800
208331
104139
104139
ACTIVE
ACTIVE
-
v vol01
gen
ENABLED 204800 ACTIVE
pl vol01-01
vol01
ENABLED 208331 ACTIVE
sd schost-101-01 vol01-01
ENABLED 104139 0
sd schost-102-01 vol01-01
ENABLED 104139 0
pl vol01-02
vol01
ENABLED 208331 ACTIVE
sd schost-103-01 vol01-02
ENABLED 103680 0
sd schost-104-01 vol01-02
ENABLED 104139 0
pl vol01-03
vol01
ENABLED LOGONLY ACTIVE
sd schost-103-02 vol01-03
ENABLED 5
LOG
[Synchronize the disk group with cluster framework:]
# cldevicegroup sync schost-1
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
DUMP: Writing 63 Kilobyte records
DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
DUMP: Date of last level 0 dump: the epoch
DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
...
DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# cldevicegroup sync schost-1
344
bkup-vol
bkup-vol-01
schost-105-01
schost-106-01
0
0
configfile
Vrifiez que les informations de la configuration du cluster ont t exportes vers le fichier XML.
# vi configfile
Bandes requises
Schma de partition des disques dfectueux (les partitions et les systmes de fichiers doivent
tre exactement dupliqus sur le disque de remplacement)
345
TABLEAU 122
Tche
Instructions
346
Remarque Le format de la partition du nouveau disque devant tre identique celui du disque
dfectueux, identifiez le schma de partitionnement avant d'entamer la procdure et recrez les
systmes de fichiers, selon les besoins.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
-s setname
-f
-d
-h nodelist
347
Utilisez la commande metadb(1M) pour recrer les rpliques de base de donnes d'tat.
# metadb -c copies -af raw-disk-device
-c copies
-f raw-disk-device
-a
partir d'un nud du cluster autre que le nud restaur, ajoutez le nud restaur tous les
ensembles de disques.
phys-schost-2# metaset -s setname -a -h nodelist
-a
[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1
348
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Supprimez le nom d'hte du nud en cours de restauration sur tous les ensembles de disques
auxquels il est reli. Excutez la commande suivante pour chaque ensemble de disques.
# metaset -s setname -d -h hostname
-s setname
-f
-d
-h nodelist
-h hostname
-m mediator_host_list
349
Remplacez le disque dfectueux du nud sur lequel le systme de fichiers racine (/) sera
restaur.
Suivez les procdures pour le remplacement d'un disque dcrites dans la documentation
fournie avec votre serveur.
Initialisez le nud dont vous effectuez la restauration. Le nud rpar est initialis en mode
monoutilisateur partir du CD-ROM. Ainsi, Solaris Volume Manager ne s'excutera pas sur ce
nud.
SPARC : Type :
ok boot cdrom -s
SPARC : Type :
ok boot net -s
350
Crez toutes les partitions et l'espace de swap sur le disque racine en utilisant la commande
format.
Recrez le schma de partitionnement d'origine du disque dfectueux.
Crez le systme de fichiers racine (/) ainsi que tout autre systme de fichiers requis en utilisant
la commande newfs.
Recrez les systmes de fichiers d'origine du disque dfectueux.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.
Utilisez les commandes suivantes pour restaurer le systme de fichiers racine (/).
# cd temp-mountpoint
# ufsrestore rvf dump-device
# rm restoresymtable
10
11
12
/dev/md/rdsk/d10
ufs
no
Change to
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /
ufs
no
351
13
14
15
16
Utilisez la commande metadb pour recrer les rpliques de base de donnes d'tat.
# metadb -c copies -af raw-disk-device
17
-c copies
-af raw-disk-device
partir d'un nud du cluster autre que le nud restaur, ajoutez le nud restaur tous les
ensembles de disques.
phys-schost-2# metaset -s setname -a -h nodelist
-a
Exemple 127
Restauration d'un systme de fichiers racine (/) situ sur un volume Solaris Volume
Manager
L'exemple suivant illustre un systme de fichiers racine (/) restaur sur le nud phys-schost-1
partir du priphrique bande /dev/rmt/0. La commande metaset est excute partir d'un
autre nud du cluster (phys-schost-2) pour supprimer le nud phys-schost-1 du metaset
schost-1 et le rajouter ultrieurement. Toutes les autres commandes sont excutes partir de
phys-schost-1. Un nouveau bloc d'initialisation est cr sur /dev/rdsk/c0t0d0s0 et
trois rpliques de base de donnes d'tat sont recres sur /dev/rdsk/c0t0d0s4.
352
SPARC : Type :
ok boot cdrom -s
353
# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Remplacez le disque dfectueux du nud sur lequel le systme de fichiers racine sera restaur.
Suivez les procdures pour le remplacement d'un disque dcrites dans la documentation
fournie avec votre serveur.
Si vous utilisez un serveur Solaris JumpStart, saisissez la commande suivante lorsque vous
recevez l'invite OpenBoot PROM ok :
ok boot net -s
354
Crez toutes les partitions et le swap sur le disque racine en utilisant la commande format.
Recrez le schma de partitionnement d'origine du disque dfectueux.
Crez le systme de fichiers racine (/) ainsi que tout autre systme de fichiers requis en utilisant
la commande newfs.
Recrez les systmes de fichiers d'origine du disque dfectueux.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.
Restaurez le systme de fichiers racine (/) partir de la sauvegarde, puis dmontez et vrifiez le
systme de fichiers.
#
#
#
#
#
#
cd temp-mountpoint
ufsrestore rvf dump-device
rm restoresymtable
cd /
umount temp-mountpoint
fsck raw-disk-device
10
Exemple 128
Initialisez le nud partir du CD du SE Oracle Solaris. Lorsque vous recevez l'invite OpenBoot
PROM ok, saisissez la commande suivante :
ok boot cdrom -s
...
355
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1
Remplacez le disque dfectueux du nud sur lequel le systme de fichiers racine sera restaur.
Suivez les procdures pour le remplacement d'un disque dcrites dans la documentation
fournie avec votre serveur.
356
ok boot cdrom -s
Si vous utilisez un serveur Solaris JumpStart, saisissez la commande suivante lorsque vous
recevez l'invite OpenBoot PROM ok :
ok boot net -s
Crez toutes les partitions et l'espace de swap sur le disque racine en utilisant la commande
format.
Recrez le schma de partitionnement d'origine du disque dfectueux.
Crez le systme de fichiers racine (/) ainsi que tout autre systme de fichiers requis en utilisant
la commande newfs.
Recrez les systmes de fichiers d'origine du disque dfectueux.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.
no
ufs
no -
357
10
11
12
13
14
15
En cas de conflit en code mineur avec un autre systme, dmontez les priphriques globaux et
affectez un nouveau code mineur au groupe de disques.
Affectez un nouveau code mineur au groupe de disques rootdg sur le nud du cluster.
# vxdg reminor rootdg 100
16
Exemple 129
Initialisez le nud partir du CD du SE Oracle Solaris. Lorsque vous recevez l'invite OpenBoot
PROM ok, saisissez la commande suivante :
ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
358
Pour plus d'informations sur la mise en miroir du disque racine encapsul, reportez-vous au
Guide dinstallation du logiciel Oracle Solaris Cluster.
359
360
13
C H A P I T R E
1 3
Ce chapitre dcrit les outils d'interface graphique de Oracle Solaris Cluster Manager et Sun
Management Center, qui permettent d'administrer de nombreux aspects d'un cluster. Il
contient galement les procdures de configuration et de lancement de Oracle Solaris Cluster
Manager. L'aide en ligne incluse dans l'interface graphique de Oracle Solaris Cluster Manager
fournit des instructions pour l'accomplissement des divers tches administratives dans Oracle
Solaris Cluster.
Ce chapitre inclut les sections suivantes :
Adaptateurs
Cbles
Services de donnes
Priphriques globaux
Interconnexions
Jonctions
Limites de charge du nud
Priphriques NAS
Nuds
361
Priphriques de quorum
Groupes de ressources
Ressources
Vous trouvez des informations sur l'installation et l'utilisation de Oracle Solaris Cluster
Manager aux emplacements suivants.
Configuration des numros de port, des adresses de serveur, des certificats de scurit et
des utilisateurs : reportez-vous la section Configuration de Oracle Solaris Cluster
Manager la page 363.
Remarque Cependant, Oracle Solaris Cluster Manager ne peut actuellement pas effectuer
toutes les tches administratives de Oracle Solaris Cluster. Vous devez utiliser l'interface de la
ligne de commande pour certaines oprations.
d'informations de gestion (MIB, Management Information Base) qui peut tre utilise comme
dfinitions de donnes par les stations de gestion tierces bases sur le protocole SNMP.
Le fichier MIB Oracle Solaris Cluster est situ sous
/opt/SUNWsymon/modules/cfg/sun-cluster-mib.mib pour n'importe quel nud de cluster.
Le fichier MIB Oracle Solaris Cluster est une spcification ASN.1 des donnes Oracle Solaris
Cluster modlises. Il s'agit de la mme spcification utilise par toutes les MIB Sun
Management Center. Pour utiliser la MIB Oracle Solaris Cluster, rfrez-vous aux instructions
sur l'utilisation d'autres MIB Sun Management Center la section SNMP MIBs for Sun
Management Centre Modules in Sun Management Center 3.6 User's Guide.
363
Sur tous les nuds de cluster, arrtez le dmon de gestion conteneur d'agent commun.
# /opt/bin/cacaoadm stop
Rcuprez le numro de port actuellement utilis par le service du conteneur d'agent commun
avec la sous-commande get-param.
# /opt/bin/cacaoadm get-param parameterName
Vous pouvez utiliser la commande cacaoadm pour modifier les numros de port des services du
conteneur d'agent commun suivants. La liste suivante fournit des exemples de services et
d'agents pouvant tre grs par le conteneur d'agent commun, et le nom des paramtres
correspondants.
jmxmp-connector-port
Port SNMP
snmp-adapter-port
snmp-adapter-trap-port
commandstream-adapter-port
Redmarrez le dmon de gestion conteneur d'agent commun sur tous les nuds de cluster.
# /opt/bin/cacaoadm start
364
Sur tous les nuds de cluster, arrtez le dmon de gestion conteneur d'agent commun.
# /opt/bin/cacaoadm stop
365
Redmarrez le dmon de gestion conteneur d'agent commun sur le nud sur lequel vous avez
renouvel les cls de scurit.
phys-schost-1# /opt/bin/cacaoadm start
Extrayez les fichiers de scurit pour chaque nud sur lequel vous avez copi le fichier
/tmp/SECURITY.tar.
Tous les fichiers de scurit qui existent dj dans le rpertoire /etc/opt/SUNWcacao/ sont
remplacs.
phys-schost-2# cd /etc/cacao/instances/default
phys-schost-2# tar xf /tmp/SECURITY.tar
Redmarrez le dmon de gestion conteneur d'agent commun sur tous les nuds.
phys-schost-1# /opt/bin/cacaoadm start
366
Si vous souhaitez accder Oracle Solaris Cluster Manager en utilisant le nom d'utilisateur
racine du nud de cluster, passez l'tape 5.
Si vous souhaitez dfinir un autre nom d'utilisateur et mot de passe, passez l'tape 3 pour
configurer les comptes utilisateur Oracle Solaris Cluster Manager.
Crez un compte utilisateur pour accder au cluster par le biais de Oracle Solaris Cluster
Manager.
Utilisez la commande useradd(1M) pour ajouter un compte utilisateur au systme. Vous devez
configurer au moins un compte utilisateur pour accder Oracle Solaris Cluster Manager si
vous n'utilisez pas le compte systme root. Les comptes utilisateur Oracle Solaris Cluster
Manager sont utiliss uniquement par Oracle Solaris Cluster Manager. Ces comptes ne
correspondent aucun compte utilisateur du SE Oracle Solaris. La cration et l'attribution d'un
rle RBAC un compte utilisateur sont dcrites plus en dtails dans la section Cration et
assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster
la page 53.
Remarque Les utilisateurs qui ne disposent pas d'un compte utilisateur sur un nud particulier
ne peuvent pas accder au cluster par le biais de Oracle Solaris Cluster Manager partir de ce
nud, et les utilisateurs ne peuvent pas grer ce nud par le biais d'un autre nud de cluster
auquel ils ont accs.
4
Assurez-vous que la taille du disque du navigateur et de la mmoire cache est dfinie sur une
valeur suprieure 0.
367
partir du navigateur, connectez-vous au port Oracle Solaris Cluster Manager partir d'un
nud du cluster.
Le numro de port par dfaut est 6789.
https://node:6789/
10
Saisissez le nom d'utilisateur et le mot de passe que vous souhaitez utiliser pour accder
Oracle Solaris Cluster Manager.
11
12
Cliquez sur le lien Oracle Solaris Cluster Manager situ sous la catgorie Systems.
13
14
Si vous ne pouvez pas vous connecter Oracle Solaris Cluster Manager, effectuez les
sous-tapes suivantes pour dterminer si un profil de rseau restreint a t choisi lors de
l'installation de Solaris et pour restaurer l'accs externe la console Web Java.
Si vous choisissez un profil de rseau restreint au cours de l'installation d'Oracle Solaris, l'accs
externe au service de la console Web Sun Java est restreint. Ce rseau est requis pour utiliser
l'interface graphique d'Oracle Solaris Cluster Manager.
a. Dterminez si le service de la console Web Java est restreint ou non.
# svcprop /system/webconsole:console | grep tcp_listen
Si la valeur de la proprit tcp_listen n'est pas dfinie sur True (Vrai), le service de la
console Web est restreint.
b. Restaurez l'accs externe au service de la console Web Java.
# svccfg
svc:> select system/webconsole
svc:/system webconsole> setprop options/tcp_listen=true
svc:/system/webconsole> quit
# /usr/sbin/smcwebserver restart
Si le service est disponible, la sortie de la commande renvoie une entre pour 6789, qui
correspond au numro de port utilis pour se connecter la console Web Java.
368
Erreurs
frquentes
Une fois cette procdure effectue, si vous ne pouvez pas vous connecter Oracle Solaris
Cluster Manager, dterminez si la console Web Sun Java est en cours d'excution en saisissant la
commande /usr/sbin/smcwebserver status. Si la console Web Sun Java n'est pas en cours
d'excution, dmarrez-la manuellement par le biais de la commande /usr/sbin/smcwebserver
start. Si vous ne pouvez toujours pas vous connecter Oracle Solaris Cluster Manager, vrifiez
que le conteneur d'agent commun est en cours d'excution en saisissant la commande
usr/sbin/cacaoadm status. Si le conteneur d'agent commun n'est pas en cours d'excution,
dmarrez-le manuellement en saisissant la commande /usr/sbin/cacaoadm start.
369
370
A N N E X E
exemple
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
Pour plus d'informations propos de l'utilisation des rles RBAC, reportez-vous au System
Administration Guide: Security Services . Reportez-vous aux pages de manuel de Oracle Solaris
Cluster pour les autorisations RBAC que ncessite chaque sous-commande de Oracle Solaris
Cluster.
371
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
372
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
FIGURE A1
Disque principal
Disque secondaire
Volume
principal
Volume bitmap
de miroir distant
Volume bitmap
de miroir distant
La rplication par miroir distant peut tre effectue de manire synchrone en temps rel ou non.
Chaque volume dfinit dans chaque cluster peut tre configur individuellement pour la
rplication synchrone ou la rplication asynchrone.
Pour la rplication de donnes asynchrone, une opration d'criture est confirme comme
tant termin avant que le volume distant ait t mis jour. La rplication de donnes
asynchrone fournit une plus grande flexibilit sur de longues distances et une connexion
faible dbit.
Instantan ponctuel
La Figure A2 montre un instantan ponctuel. Les donnes du volume principal de chaque
disque sont copies sur le volume en double du mme disque. Le bitmap ponctuel rpertorie les
diffrences entre le volume principal et le volume en double. Lorsque les donnes sont copies
sur le volume en double, le bitmap ponctuel est rinitialis.
Annexe A exemple
373
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
FIGURE A2
Instantan ponctuel
Disque principal
Disque secondaire
Volume
principal
Volume
en double
Volume
en double
Volume
bitmap ponctuel
Volume
bitmap ponctuel
Les diffrences entre
le volume principal et
le volume en double
sont rpertories sur
le volume bitmap ponctuel
374
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
FIGURE A3
Disque principal
Disque secondaire
Volume
principal
Volume
en double
Volume
en double
Rplication ponctuelle
Volume
bitmap ponctuel
Volume
bitmap ponctuel
Volume bitmap
de miroir distant
Volume bitmap
de miroir distant
Annexe A exemple
375
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
tre nomm d'aprs le groupe de priphriques avec lequel il est colocalis, suivi de
-stor-rg
Par exemple, devgrp-stor-rg.
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Les ressources d'application et les groupes de ressources d'application configurs sur le cluster
principal doivent aussi tre configurs sur le cluster secondaire. De plus, les donnes auxquelles
accdent les ressources d'application doivent tre rpliques sur le cluster secondaire.
Cette section fournit des directives pour la configuration des groupes de ressources
d'application suivants :
Doit tre en ligne sur le cluster principal et hors ligne sur le cluster secondaire
Le groupe de ressources d'application doit tre mis en ligne sur le cluster secondaire lorsque
le cluster secondaire prend la place du cluster principal.
Annexe A exemple
377
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
FIGURE A4
Cluster secondaire
Groupe de ressources
d'application
Groupe de ressources
d'application
Ressource
d'application
Ressource
d'application
Ressource
HAStoragePlus
Ressource
HAStoragePlus
Groupe de ressources
de rplication
Ressource
HAStoragePlus
Nom d'hte
logique
Groupe de ressources
de rplication
Rplication
par miroir distant
Ressource
HAStoragePlus
Nom d'hte
logique
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Un groupe de ressources pour une application volutive doit disposer des caractristiques
suivantes :
tre en ligne sur le cluster principal et hors ligne sur le cluster secondaire
FIGURE A5
Cluster secondaire
Groupe de ressources
d'application
Groupe de ressources
d'application
Ressource
d'application
Ressource
d'application
Groupe de ressources
d'adresse partage
Groupe de ressources
d'adresse partage
Adresse partage
Adresse partage
Groupe de ressources
de rplication
Ressource
HAStoragePlus
Groupe de ressources
de rplication
Rplication par
miroir distant
Nom d'hte
logique
Ressource
HAStoragePlus
Nom d'hte
logique
379
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Le DNS associe un client au nom d'hte logique d'une application. Aprs un basculement, le
mappage DNS du cluster principal doit tre supprim et un mappage DNS doit tre cr pour le
cluster secondaire. La Figure A6 montre comment un DNS mappe un client un cluster.
FIGURE A6
DNS
Internet
Cluster
secondaire
Pour mettre le DNS jour, utilisez la commande nsupdate. Pour plus d'informations, voir la
page de manuel nsupdate(1M). Pour un exemple de gestion d'un basculement, reportez-vous
la section Exemple de gestion d'un basculement la page 405.
Aprs rparation, le cluster principal peut tre remis en ligne. Pour repasser au cluster principal
d'origine, effectuez les tches suivantes :
1. Synchronisez le cluster principal au cluster secondaire pour garantir que le volume principal
est jour.
2. Mettez le DNS jour pour que les clients puissent accder l'application sur le cluster
principal.
380
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
TABLEAU A1
Tche
Instructions
Annexe A exemple
381
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
FIGURE A7
Cluster principal
Commutateurs
Nud A
Nud B
Internet
Client
Nud C
Commutateurs
Cluster secondaire
Matriel ou logiciel
Configuration requise
Matriel de nud
Le logiciel Sun StorageTek Availability Suite est pris en charge sur tous les
serveurs utilisant le SE Oracle Solaris.
Pour plus d'information propos du matriel utiliser, reportez-vous au
Oracle Solaris Cluster 3.3 Hardware Administration Manual.
Espace disque
382
Environ 15 Mo.
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
TABLEAU A2
(Suite)
Matriel ou logiciel
Configuration requise
SE Oracle Solaris
Patchs du logiciel Sun StorageTek Pour plus d'informations propos des derniers patchs, reportez-vous
Availability Suite
l'adresse http://www.sunsolve.com.
Annexe A exemple
383
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Le tableau suivant rpertorie les noms des groupes et des ressources crs par l'exemple de
configuration.
TABLEAU A3
Groupe ou ressource
Nom
Description
Groupe de priphriques
devgrp
Groupe de priphriques
Groupe de ressources de
rplication et ressources
devgrp-stor-rg
lhost-reprg-prim,
lhost-reprg-sec
devgrp-stor
nfs-rg
lhost-nfsrg-prim,
lhost-nfsrg-sec
nfs-dg-rs
nfs-rs
La ressource NFS
Groupe de ressources
d'application et
ressources
l'exception de devgrp-stor-rg, les noms des groupes et des ressources sont des exemples de
noms qui peuvent tre modifis en fonction des besoins. Le groupe de ressources de rplication
doit comprendre un nom au format devicegroupname-stor-rg.
Cette exemple de configuration utilise le logiciel VxVM. Pour plus d'informations propos du
&logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel
Solaris Volume Manager du Guide dinstallation du logiciel Oracle Solaris Cluster.
La figure suivant illustre les volumes crs dans le groupe de priphriques.
384
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
FIGURE A8
Volume 1:
principal
Volume 2:
en double
Volume 3:
bitmap ponctuel
Volume 4:
bitmap de miroir distant
Volume 5:
fichier dfstab
Remarque Les volumes dfinis dans cette procdure ne doivent pas comprendre de zone prive
d'tiquette de disque, par exemple, cylindre 0. Le logiciel VxVM gre cette contrainte
automatiquement.
Lire les directives et les conditions requises dans les sections suivantes :
Prsentation du logiciel Sun StorageTek Availability Suite dans un cluster la page 372
Directives pour la configuration de la rplication de donnes base sur les htes entre les
clusters la page 375
Dfinir les clusters principal et secondaire comme dcrit dans Connexion et installation
des clusters la page 381.
Annexe A exemple
385
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify.
Le nud nodeA est le premier nud du cluster principal. Pour un rappel de quel nud
correspond nodeA, reportez-vous la Figure A7.
Crez un groupe de disques sur nodeA qui contient le volume 1, vol01 au volume 4, vol04.
Pour plus d'informations propos de la configuration d'un groupe de disques l'aide du logiciel
VxVM, reportez-vous au Chapitre 5, Installation et configuration de Veritas Volume
Manager du Guide dinstallation du logiciel Oracle Solaris Cluster.
Aucun systme de fichiers n'est requis pour vol03 ou vol04 qui sont utiliss comme volumes
bruts la place.
tapes suivantes
Accdez nodeC en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify.
Crez un groupe de disques sur nodeC qui contient quatre volumes : volume 1, vol01 volume
4, vol04.
386
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Aucun systme de fichiers n'est requis pour vol03 ou vol04 qui sont utiliss comme volumes
bruts la place.
tapes suivantes
l'application NFS
Avant de
commencer
Sur nodeA et nodeB, connectez-vous en tant que superutilisateur ou utilisez un rle fournissant
une autorisation RBAC solaris.cluster.admin.
Sur nodeA et nodeB, crez un rpertoire de point de montage pour le systme de fichiers NFS.
Par exemple :
nodeA# mkdir /global/mountpoint
Sur nodeA et nodeB, configurez le volume principal monter automatiquement sur le point de
montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeA et nodeB. Le texte
doit se trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \
/global/mountpoint ufs 3 no global,logging
Pour un rappel des noms et des numros de volumes utiliss dans le groupe de priphriques,
reportez-vous la Figure A8.
4
Sur nodeA, crez un volume pour les informations du systme de fichiers utilises par le service
de donnes Oracle Solaris Cluster HA pour NFS.
nodeA# vxassist -g devgrp make vol05 120m disk1
Le volume 5, vol05, contient les informations du systme de fichiers utilises par le service de
donnes Oracle Solaris Cluster HA pour NFS.
5
387
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Sur nodeA et nodeB, configurez vol05 monter automatiquement sur le point de montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeA et nodeB. Le texte
doit se trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \
/global/etc ufs 3 yes global,logging
10
l'application NFS
Avant de
commencer
Sur nodeC, connectez-vous en tant que superutilisateur ou utilisez un rle fournissant une
autorisation RBAC solaris.cluster.admin.
Sur nodeC, crez un rpertoire de point de montage pour le systme de fichiers NFS.
Par exemple :
nodeC# mkdir /global/mountpoint
388
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Sur nodeC, configurez le volume principal monter automatiquement sur le point de montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeC. Le texte doit se
trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \
/global/mountpoint ufs 3 no global,logging
Sur nodeC, crez un volume pour les informations du systme de fichiers utilises par le service
de donnes Oracle Solaris Cluster HA pour NFS.
nodeC# vxassist -g devgrp make vol05 120m disk1
Le volume 5, vol05, contient les informations du systme de fichiers utilises par le service de
donnes Oracle Solaris Cluster HA pour NFS.
5
Sur nodeC, configurez vol05 afin qu'il soit mont automatiquement sur le point de montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeC. Le texte doit se
trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \
/global/etc ufs 3 yes global,logging
10
389
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
tapes suivantes
principal
Avant de
commencer
Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.
-n nodeA,nodeB
devgrp-stor-rg
-g
-p GlobalDevicePaths=
-p AffinityOn=True
390
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Le nom d'hte logique pour le groupe de ressources de rplication sur le cluster principal se
nomme lhost-reprg-prim.
6
-e
-M
-n
secondaire
Avant de
commencer
Accdez nodeC en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.
create
-n
devgrp
devgrp-stor-rg
Annexe A exemple
391
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
-p GlobalDevicePaths=devgrp \
-p AffinityOn=True \
devgrp-stor
create
Cre la ressource.
-t
-p GlobalDevicePaths=
-p AffinityOn=True
devgrp-stor
Le nom d'hte logique pour le groupe de ressources de rplication sur le cluster principal se
nomme lhost-reprg-sec.
6
en ligne
Met en ligne.
-e
-M
-n
392
Rendez-vous Cration d'un groupe de ressources d'application NFS sur le cluster primaire
la page 393.
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
primaire
Cette procdure dcrit la cration des groupes de ressources d'application pour NFS. Cette
procdure est spcifique cette application et ne peut pas tre utilise pour un autre type
d'application.
Avant de
commencer
Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.
Pathprefix=/global/etc
Spcifie le rpertoire dans lequel les ressources du groupe peuvent crire des fichiers
administratifs.
Auto_start_on_new_cluster=False
Spcifie que le groupe de ressources d'application n'est pas dmarr automatiquement.
RG_dependencies=devgrp-stor-rg
Spcifie le groupe de ressources dont dpend le groupe de ressources d'application. Dans cet
exemple, le groupe de ressources d'application dpend du groupe de ressources de
rplication devgrp-stor-rg.
Si le groupe de ressources d'application est commut vers un nouveau nud principal, le
groupe de ressources de rplication est automatiquement commut. Cependant, si le groupe
de ressources de rplication est commut vers un nouveau nud principal, le groupe de
ressources d'application doit tre commut manuellement.
nfs-rg
Le nom du groupe de ressources d'application.
Annexe A exemple
393
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
create
Cre la ressource.
-g
Spcifie le groupe de ressources auquel la ressource est ajoute.
-t SUNW.HAStoragePlus
Spcifie que la ressource est de type SUNW.HAStoragePlus .
-p FileSystemMountPoints=/global/
Spcifie que le point de montage pour le systme de fichiers est global.
-p AffinityOn=True
Permet d'indiquer que la ressource d'application doit effectuer une commutation d'analogie
pour les priphriques globaux et les systmes de fichier du cluster dfinis par -p
GlobalDevicePaths=. Par consquent, lorsque le groupe de ressources d'application bascule
ou est commut, le groupe de priphriques associ est commut.
nfs-dg-rs
Le nom de la ressource HAStoragePlus pour l'application NFS.
Pour plus d'informations propos de ces proprits d'extension, reportez-vous la page de
manuel SUNW.HAStoragePlus(5).
6
Le nom d'hte logique du groupe de ressources d'application sur le cluster principal se nomme
lhost-nfsrg-prim.
7
394
en ligne
-e
-M
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
-n
nfs-rg
8
Rendez-vous la section Cration d'un groupe de ressources d'application NFS sur le cluster
secondaire la page 395.
secondaire
Avant de
commencer
Effectuez la procdure Cration d'un groupe de ressources d'application NFS sur le cluster
primaire la page 393.
Accdez nodeC en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.
create
Cre le groupe de ressources.
-p
Spcifie une proprit du groupe de ressources.
Pathprefix=/global/etc
Spcifie un rpertoire dans lequel les ressources du groupe peuvent crire des fichiers
administratifs.
Auto_start_on_new_cluster=False
Spcifie que le groupe de ressources d'application n'est pas dmarr automatiquement.
Annexe A exemple
395
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
RG_dependencies=devgrp-stor-rg
Spcifie les groupes de ressources dont dpend le groupe de ressources d'application. Dans
cet exemple, le groupe de ressources d'application dpend du groupe de ressources de
rplication.
Si le groupe de ressources d'application est commut vers un nouveau nud principal, le
groupe de ressources de rplication est automatiquement commut. Cependant, si le groupe
de ressources de rplication est commut vers un nouveau nud principal, le groupe de
ressources d'application doit tre commut manuellement.
nfs-rg
Le nom du groupe de ressources d'application.
5
create
Cre la ressource.
-g
Spcifie le groupe de ressources auquel la ressource est ajoute.
-t SUNW.HAStoragePlus
Spcifie que la ressource est de type SUNW.HAStoragePlus .
-p
Spcifie une proprit de la ressource.
FileSystemMountPoints=/global/
Spcifie que le point de montage pour le systme de fichiers est global.
AffinityOn=True
Permet d'indiquer que la ressource d'application doit effectuer une commutation d'analogie
pour les priphriques globaux et les systmes de fichier du cluster dfinis par -x
GlobalDevicePaths=. Par consquent, lorsque le groupe de ressources d'application bascule
ou est commut, le groupe de priphriques associ est commut.
nfs-dg-rs
Le nom de la ressource HAStoragePlus pour l'application NFS.
Pour plus d'informations propos de ces proprits d'extension, reportez-vous la page de
manuel SUNW.HAStoragePlus(5).
6
396
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Assurez-vous que le groupe de ressources d'application ne se mette pas en ligne sur nodeC.
nodeC#
nodeC#
nodeC#
nodeC#
Si le volume global est mont sur le cluster principal, dmontez le volume global du cluster
secondaire.
nodeC# umount /global/mountpoint
Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.read.
397
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Confirmez que les noms d'hte logique lhost-reprg-prim et lhost-reprg-sec sont en lignes.
nodeA# clresourcegroup status
nodeC# clresourcegroup status
Activez la rplication par miroir distant du cluster principal vers le cluster secondaire.
Cette tape active la rplication du volume principal du cluster principal vers le volume
principal du cluster secondaire. De plus, cette tape active la rplication vers le bitmap miroir
distant sur vol04.
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
ind \
\
\
\
Cette tape permet au volume principal du cluster principal d'tre copi sur le volume en
double du mme cluster. Le volume principal, le volume en double et le volume bitmap
ponctuel doivent se trouver dans le mme groupe de priphriques. Dans cet exemple, vol01
correspond au volume principal, vol02 au volume en double et vol03 au volume bitmap
ponctuel.
8
Cette tape associe l'instantan ponctuel l'ensemble de volume de miroir distant. Le logiciel
Sun StorageTek Availability Suite garantit la prise d'un instantan ponctuel avant que la
rplication par miroir puisse se produire.
tapes suivantes
Activez la rplication par miroir distant du cluster principal vers le cluster secondaire.
Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync
Annexe A exemple
399
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
ind \
\
\
\
tapes suivantes
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
401
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
tapes suivantes
Effectuez la procdure Ralisation d'une rplication par miroir distant la page 400.
Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify et solaris.cluster.admin.
Lorsque quelque chose est crit sur le volume de donnes du disque, le fichier bitmap sur le
mme disque est mis jour. Aucune rplication ne se produit.
4
402
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync
tapes suivantes
Accdez nodeA et nodeC en tant que superutilisateur ou utilisez un rle fournissant une
autorisation RBAC solaris.cluster.admin.
403
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Lorsque quelque chose est crit sur le volume de donnes du disque, le fichier bitmap sur le
mme disque est mis jour. Aucune rplication ne se produit.
d. Assurez-vous que le rpertoire PathPrefix est disponible.
nodeC# mount | grep /global/etc
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Assurez-vous que le rpertoire affich dans l'tape 5 est le mme que celui affich dans
l'tape 6.
Lorsque quelque chose est crit sur le volume principal, le volume secondaire est mis jour
par le logiciel Sun StorageTek Availability Suite.
Voir aussi
Annexe A exemple
405
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
Accdez nodeA et nodeC en tant que superutilisateur ou utilisez un rle fournissant une
autorisation RBAC solaris.cluster.admin.
Lorsque quelque chose est crit sur le volume de donnes du disque, le volume bitmap sur le
mme groupe de priphriques est mis jour. Aucune rplication ne se produit.
3
Confirmez que le cluster principal et le cluster secondaire sont en mode de journalisation et que
la synchronisation automatique est dsactive.
a. Sur nodeA, confirmez le mode et le paramtre :
Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -P
Pour nodeA et nodeC, l'tat doit tre journalisation et l'tat actif de synchronisation
automatique doit tre dsactiv.
4
Confirmez que le cluster secondaire est prt prendre la place du cluster principal.
nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01
406
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite
tapes suivantes
Supprimez le mappage DNS actuel entre le nom d'hte logique du groupe de ressources
d'application et l'adresse IP du cluster, pour les deux clusters.
>
>
>
>
update
update
update
update
delete
delete
delete
delete
lhost-nfsrg-prim A
lhost-nfsrg-sec A
ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
ipaddress1rev
ipaddress2rev
ttl
Crez le nouveau mappage DNS entre le nom d'hte logique du groupe de ressources
d'application et l'adresse IP du cluster, pour les deux clusters.
Mappez le nom d'hte logique principal l'adresse IP du cluster secondaire et le nom d'hte
logique secondaire l'adresse IP du cluster principal.
>
>
>
>
update
update
update
update
add
add
add
add
ipaddress2fwd
ipaddress1fwd
Annexe A exemple
407
408
Index
A
Activation de cbles de transport, 232
Activation et dsactivation d'une base MIB
d'vnements SNMP, 292, 293
Adaptateur de transport, 229
Administration
Cluster avec outil d'interface graphique, 361369
Cluster de zones, 18, 281
Cluster global, 18
Interconnexion de cluster et rseaux
publics, 223241
IPMP, 223241
Nud non votant du cluster global, 18
Paramtre du cluster global, 259302
Priphrique rpliqu bas sur le stockage, 97121
Priphrique rpliqu EMC SRDF, 109121
Priphrique rpliqu Hitachi TrueCopy, 98109
Systme de fichiers du cluster, 121
Adresse IP, Ajout d'un service de nommage pour les
zones IP exclusives, 249
Affichage
Configuration d'un cluster de zones, 36
Configuration du cluster global, 36
Affichage des ressources configures, 31
Affichage sous forme de liste, Configuration d'un
groupe de priphriques, 164
Ajout
Cble, adaptateur et commutateur de transport, 226
Groupe de priphriques, 132, 134135
Groupe de priphriques Solaris Volume
Manager, 134
Hte SNMP, 294
Ajout (Suite)
Nud, 243249
Nud un cluster de zones, 244
Nud un cluster global, 244
Nud sur un groupe de priphriques, 153
Nouveau volume dans un groupe de
priphriques, 143
Priphrique de quorum, 193
Priphrique de quorum de disque partag attach
directement, 194
Priphrique de quorum de serveur de quorum, 200
Priphrique de quorum NAS, 197
Priphrique de quorum Sun NAS, 195
Priphrique de quorum Sun Storage 7000 Unified
Storage Systems NAS, 195
Rle (RBAC), 53
Rle personnalis (RBAC), 56
Systme de fichiers du cluster, 174177
Utilisateur SNMP, 296
ZFS, groupe de priphriques, 135
Ajout d'adaptateur de transport, 229
Ajout d'adaptateurs de transport, 226
Ajout de commutateur de transport, 229
Ajout de commutateurs de transport, 226
Annulation de l'enregistrement
Groupe de priphriques, 152
Groupe de priphriques Solaris Volume
Manager, 137
Application de basculement pour la rplication de
donnes
Commutation d'analogie, 376
409
Index
B
Baie de stockage, Suppression, 255
basculement d'analogie, Proprit d'extension pour la
rplication de donnes, 376
Base MIB
Activation et dsactivation d'vnements
SNMP, 292, 293
Modification du protocole des vnements
SNMP, 293
Base MIB d'vnements
Activation et dsactivation SNMP, 293
Modification du protocole SNMP, 293
Base MIB d'vnements MIB, Activation et
dsactivation SNMP, 292
Bitmap
Instantan ponctuel, 373
Rplication par miroir distant, 372
boot (commande), 6365
410
C
Cble de transport, 229
Activation, 232
Ajout, 226, 229
Dsactivation, 233
cconsole (commande), 22, 26
ccp (commande), 21, 26
Changement
Nud principal, 165166
Nud principal d'un groupe de
priphriques, 165166
Changement du nud principal d'un groupe de
priphriques, 165166
Chemin d'accs la zone, Dplacement, 281
Chemin de disque
Contrle, 93188
Impression de chemins de disques
dfectueux, 184
Correction d'une erreur d'tat, 184185
Dsactivation du contrle, 183184
Chemin de disque partag
Activation de la rinitialisation automatique, 187
Contrle, 180188
Dsactivation de la rinitialisation
automatique, 188
claccess (commande), 21
cldevice (commande), 21
cldevicegroup (commande), 21
Cl de scurit, Renouvellement, 365
clinterconnect (commande), 21
clnasdevice (commande), 21
clnode (commande), 279, 280281
clnode check (commande), 21
clquorum (commande), 21
clreslogicalhostname (commande), 21
clresource (commande), 21
Suppression des ressources et groupes de
ressources, 282
clresourcegroup (commande), 21, 280281
clresourcetype (commande), 21
clressharedaddress (commande), 21
clsetup (utilitaire), 20, 21, 28
clsnmphost (commande), 21
clsnmpmib (commande), 21
Index
clsnmpuser (commande), 21
cltelemattribute (commande), 21
Cluster
Authentification, 262
Dfinition de l'heure et de la date, 264
Installation d'un patch avec rinitialisation, 322
Modification du nom, 260261
Restauration de fichiers, 345
Sauvegarde, 23, 333345
cluster check (commande), 21
Vrification du fichier vfstab, 176
Cluster Control Panel (CCP), 22
Cluster de campus
Rcupration avec rplication de donnes base sur
le stockage, 91
Rplication de donnes base sur le stockage, 8892
Cluster de zones
Administration, 259302
Affichage de la configuration, 36
Clonage, 281
Dfinition, 18
Dplacement d'un chemin d'accs la zone, 281
Fermeture, 5983
Initialisation, 5983
Prparation pour l'excution d'applications, 281
Rinitialisation, 65
Statut d'un composant, 33
Suppression d'un systme de fichiers, 281
Validation de la configuration, 45
Cluster global
Administration, 259302
Affichage de la configuration, 36
Dfinition, 18
Fermeture, 5983
Initialisation, 5983
Rinitialisation, 65
Statut d'un composant, 33
Suppression des nuds, 251
Validation de la configuration, 45
cluster shutdown (commande), 5969
clzonecluster
Arrt, 5969
Description, 28
Initialisation, 6365
clzonecluster (commande), 21
Commande
boot, 6365
cconsole, 22, 26
ccp, 21, 26
claccess, 21
cldevice, 21
cldevicegroup, 21
clinterconnect, 21
clnasdevice, 21
clnode check, 21
clquorum, 21
clreslogicalhostname, 21
clresource, 21
clresourcegroup, 21
clresourcetype, 21
clressharedaddress, 21
clsetup, 21
clsnmphost, 21
clsnmpmib, 21
clsnmpuser, 21
cltelemetryattribute, 21
cluster check, 21, 24, 45, 47
cluster shutdown, 5969
clzonecluster, 21, 5969
clzonecluster verify, 45
crlogin, 26
cssh, 26
ctelnet, 26
metaset, 9397
netcon, 22
Commutateur de transport, 229
Commutation d'analogie, Configuration pour la
rplication de donnes, 390
Commutation pour la rplication de donnes
Commutation d'analogie, 376
Ralisation, 405407
Comptes utilisateur, outil, Description, 57
Configuration
Code mineur de groupe de priphriques, 144
Priphrique rpliqu Hitachi TrueCopy, 98100
Rplication de donnes, 371407
Rle (RBAC), 5152
411
Index
D
Dfinition de l'heure d'un cluster, 264
Dmarrage
Cluster de zones, 6365
Cluster global, 6365
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Oracle Solaris Cluster Manager, 366
Dernier priphrique de quorum, Suppression, 205
Dsactivation des cbles de transport, 233
412
E
EMC SRDF
Administration, 109121
Configuration d'un groupe de rplication, 109111
Configuration de priphriques DID, 111113
Configuration requise, 90
Copie adaptative, 89
Exemple de configuration, 114121
Mode Domino, 89
Pratiques recommandes, 92
Rcupration aprs la dfaillance totale de la salle
principale du cluster campus, 118121
Restriction, 90
Vrification de la configuration, 113
Encapsulation, 141
Enregistrement
Groupe de disques en tant que groupe de
priphriques, 145
Modification de la configuration de groupes de
disques, 148
Ensemble de processeurs ddi, Configuration, 310
Espace de noms
Global, 9397
Migration, 128
Espace de noms des priphriques globaux,
Migration, 128
/etc/inet/hosts (fichier), Configuration dans des
zones IP exclusives, 249
/etc/nsswitch.conf (fichier), Modification de la zone
non globale, 248
/etc/vfstab (fichier), 47
Ajout de points de montage, 175
Vrification de la configuration, 176
Index
F
failback (proprit), 159
Fermeture
Cluster de zones, 5983
Cluster global, 5983
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Zone non globale, 69
Fichier
/etc/vfstab, 47
md.conf, 132
md.tab, 23
ntp.conf.cluster, 269
Restauration interactive, 346
Fichier LOFI, Dsinstallation, 289
Fonctions prises en charge, VxFS, 121
Fonctions VxFS prises en charge, 121
G
Gestion, Quorum, 189215
gestion de l'alimentation, 259
Gestionnaire de volumes, Veritas, 9697
Gestionnaire Solaris Cluster Oracle, 361
Global
Espace de noms, 9397, 126
Priphrique, 93188
Configuration des permissions, 94
Reconfiguration dynamique, 9496
Point de montage, vrification, 180
Point de montage (vrification), 47
Groupe de disques
Cration, 136137
Enregistrement, 145
Enregistrement des modifications de la
configuration, 148
H
Hitachi TrueCopy
Administration, 98109
Configuration d'un groupe de rplication, 98100
Configuration de priphriques DID, 100102
Configuration requise, 90
Exemple de configuration, 103109
Mode Data ou Status, 89
413
Index
K
/kernel/drv/, md.conf (fichier), 132
L
Limite de charge
concentrate_load (proprit), 279
Configuration sur des nuds, 279, 280281
preemption_mode (proprit), 279
Liste, Configuration de quorum, 213
I
Impression, Chemin de disque dfectueux, 184
Information de version, 29
Informations DID, Mise jour manuelle, 184185
Initialisation
Cluster de zones, 5983
Cluster global, 5983
Mode non cluster, 79
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Initialisation en mode non cluster, 79
Installation
Patch, 318
Patch sans rinitialisation, 325
Instantan
Voir Rplication base sur le stockage
ponctuel, 373
Instantan ponctuel
Dfinition, 373
Ralisation, 402403
Interconnexion de cluster
Administration, 223241
Reconfiguration dynamique, 225
Vrification de l'tat, 225
Interface graphique, outil d'administration, 361369
IPMP
Administration, 239
Groupe dans les zones IP exclusives
Configuration, 248
Statut, 35
414
M
Maintenance
Nud, 275
Priphrique de quorum, 210
md.tab (fichier), 23
Message d'erreur
Suppression des nuds, 257258
/var/adm/messages (fichier), 82
metaset (commande), 9397
Migration, Espace de noms des priphriques
globaux, 128
Miroir, sauvegarde en ligne, 338
Mise jour, Dans les nuds non votants du cluster
global, 320
Mise jour de l'espace de noms global, 126
Mise jour du logiciel Oracle Solaris Cluster, 315317
Mise jour manuelle des informations DID, 184185
Mise en mmoire distante, Voir Rplication base sur le
stockage
Mise en miroir locale, Voir Rplication base sur le
stockage
Mode de maintenance
Mise d'un priphrique de quorum en, 210
Sortie d'un priphrique de quorum du, 211
Modification
Adresse du serveur Oracle Solaris Cluster
Manager, 365
du protocole de la base MIB d'vnements
SNMP, 293
Groupe de disques, 144
Liste de nuds de priphrique de quorum, 207
Index
Modification (Suite)
Nom d'hte priv, 267
Nom du cluster, 260261
Numro de port, utilisation du conteneur d'agent
commun, 364
numsecondaries (proprit), 160
Proprit, 159
Utilisateur (RBAC), 57
N
Nud
Ajout, 243249
Ajout un groupe de priphriques, 153
Authentification, 262
Configuration de limites de charge, 280281
Connexion, 26
Fermeture, 6982
Initialisation, 6982
Installation d'un patch avec rinitialisation, 318
Mise en mode de maintenance, 275
Principal, 9496, 159
Renommage dans un cluster de zones, 272
Renommage dans un cluster global, 272
Secondaire, 159
Suppression
Message d'erreur, 257258
Suppression de groupes de priphriques, 155
Suppression de nuds non votants d'un cluster
global, 254
Suppression depuis un cluster de zones, 250
Suppression des groupes de priphriques, 138
Suppression des nuds d'un cluster global, 251
Nud de cluster de zones
Fermeture, 6982
Initialisation, 6982
Rinitialisation, 7579
Nud de cluster global
Fermeture, 6982
Initialisation, 6982
Rinitialisation, 7579
Nud non votant de cluster global, Fermeture et
rinitialisation, 69
O
OpenBoot PROM (OBP), 266
Option de montage des systmes de fichiers du cluster,
Configuration requise, 176
Oracle Solaris Cluster Manager, 20
Dmarrage, 366
Modification de l'adresse du serveur, 365
Paramtrage des rles RBAC, 363
415
Index
P
Partage de CPU
Configuration, 303
Contrle, 303
Ensemble de processeurs ddi aux nuds non
votant du cluster global, 310
Nud non votant du cluster global, 307
Nud votant du cluster global, 305
Patch
Conseil, 316
Installation d'un patch avec rinitialisation, 318
Installation d'un patch sans rinitialisation, 325
Installation sur un cluster ou un
microprogramme, 322
Priphrique, Global, 93188
Priphrique de disque brut, Convention de
nommage, 175
Priphrique de quorum
Ajout, 193
Priphrique de quorum de disque partag
attach directement, 194
Priphrique de quorum de serveur de
quorum, 200
Priphrique de quorum NAS, 197
Priphrique de quorum Sun NAS, 195
Priphrique de quorum Sun Storage 7000
Unified Storage Systems NAS, 195
Liste de la configuration, 213
Mode de maintenance, mise d'un priphrique
en, 210
Mode de maintenance, sortie d'un priphrique
du, 211
Modification d'une liste de nuds, 207
Reconfiguration dynamique des priphriques, 191
Remplacement, 206207
416
Q
Quorum
Administration, 189215
Prsentation, 189215
Index
R
RBAC, 5158
Nud non votant, 52
Nud votant du cluster global, 52
Oracle Solaris Cluster Manager, 363
Profil de droits(description), 5253
Tche
Ajout d'un rle, 53
Ajout d'un rle personnalis, 56
Configuration, 5152
Modification des utilisateurs, 57
Utilisation, 5152
Recherche
ID du nud d'un cluster de zones, 262
ID du nud d'un cluster global, 262
Nom de systme de fichiers, 334
Reconfiguration dynamique, 9496
Interconnexion de cluster, 225
Interface de rseau public, 240
Priphrique de quorum, 191
Rcupration, Clusters avec rplication de donnes
base sur le stockage, 91
Redmarrage
Nud de cluster de zones, 7579
Nud de cluster global, 7579
Rinitialisation
Cluster de zones, 65
Cluster global, 65
Nud de cluster de zones, 7579
Nud de cluster global, 7579
Zone non globale, 69
Remplacement de priphriques de quorum, 206207
Renommage de nuds
Cluster de zones, 272
Cluster global, 272
Renouvellement, Cl de scurit, 365
Rparation, Priphrique de quorum, 214
Rparation complte du fichier
/var/adm/messages, 82
Rplication, Voir Rplication de donnes
Index
S
SATA, 192, 194
Sauvegarde
Cluster, 23, 333345
Miroir en ligne, 338
Systme de fichiers, 334
Systme de fichiers racine, 335
Volume en ligne, 341
SE Oracle Solaris
Contrle du CPU, 303
Dfinition d'un cluster de zones, 17
418
Index
T
Tolrance de sinistre, Dfinition, 372
TrueCopy
Voir Hitachi TrueCopy
U
/usr/cluster/bin/clresource, Suppression des
groupes de ressources, 282
/usr/cluster/bin/cluster check (commande),
Vrification du fichier vfstab, 176
Utilisateur
Ajout SNMP, 296
Modification des proprits, 57
Suppression SNMP, 297
Utilisation, Rles (RBAC), 5152
V
Validation
Configuration d'un cluster de zones, 45
Configuration du cluster global, 45
/var/adm/messages (fichier), 82
Vrification
Configuration de la rplication de
donnes, 403405
Configuration vfstab, 176
tat de l'interconnexion de cluster, 225
Point de montage global, 47, 180
SMF, 247
Veritas
Administration, 9697
419
Index
Veritas (Suite)
Restauration d'un systme de fichiers racine non
encapsul, 354
Restauration du systme de fichiers racine
encapsul, 356
Sauvegarde en ligne, 341
Veritas File System (VxFS)
Administration, 177
Montage des systmes de fichiers du cluster, 177
Veritas Volume Manager (VxVM), Nom de
priphrique de disque brut, 175
vfstab (fichier)
Ajout de points de montage, 175
Vrification de la configuration, 176
Volume
Voir Rplication base sur le stockage
Sauvegarde en ligne, 341
Suppression d'un groupe de priphriques, 151152
Volumes, Ajout un groupe de priphriques, 143
VxVM, 9697
Z
ZFS
Ajout d'un groupe de priphriques, 135
Rplication, 135
Restrictions des systmes de fichiers racines, 121
Suppression d'un systme de fichiers, 283285
Zone IP exclusive, Voir Conteneur Oracle Solaris
Zone IP partage, Voir Conteneur Oracle Solaris
420